神经网络和深度学习近几年好多人在学习,但是他们具体是什么关系,又有什么联系,众说纷纭, 有人说:深度学习可以理解成用深度神经网络(DNN,Deep Neural Network)来进行机器学习, 有人说:深度学习是一种方法,神经网络是个模型。用了深度学习可以有效解决层数多的网络不好学习的问题 还有人说:本是同根生,相煎何太急 接下来,下面这张图,能帮助大家更好地学习神经网络和深度学习,掌握理清脉络
线性回归是最基本的 注释:红色是基础
- NLP自然语言处理(nlp,natural language processing)
- 机器学习(machine learning)
- CNN卷积神经网络(convolutional neural network)
- RNN递归神经网络(Recurrent Neural Network)
- LSTM Long Short Term Memory长的短时记忆长短时记忆长短时记忆模型
CNN:卷积神经网络【空间】 RNN: 递归神经网络【时域】 神经网络中,隐含层网络的输出作为下一时刻自身的输入–>一级一级会衰弱–》需要记忆封存的结构(LSTM) RNN->LSTM【记忆量的扩充】 描述
- 非线性的运算关系叠加起来就是一个神经网络
- 神经网络到CNN,RNN(空间和时间的扩展)
- 卷积核:二维的处理算组,图像的处理
- 神经网络到CNN就是一维到二维三维的转化,在空间上进行扩展
- 神经网络到RNN(神经网络一维有个时间的延续,比如说语音)
- 记忆GATE-根据输入的信息判断哪些是需要提前记下来的,在之后处理的时候选择要不要释放
小象学院公开课具体讲述了这一内容,下面是视频链接: 视频连接