看透神经网络和深度学习的脉络,终于不迷糊了

2018-05-28 14:44:52 浏览数 (1)

神经网络和深度学习近几年好多人在学习,但是他们具体是什么关系,又有什么联系,众说纷纭, 有人说:深度学习可以理解成用深度神经网络(DNN,Deep Neural Network)来进行机器学习, 有人说:深度学习是一种方法,神经网络是个模型。用了深度学习可以有效解决层数多的网络不好学习的问题 还有人说:本是同根生,相煎何太急 接下来,下面这张图,能帮助大家更好地学习神经网络和深度学习,掌握理清脉络

线性回归是最基本的 注释:红色是基础

  • NLP自然语言处理(nlp,natural language processing)
  • 机器学习(machine learning)
  • CNN卷积神经网络(convolutional neural network)
  • RNN递归神经网络(Recurrent Neural Network)
  • LSTM Long Short Term Memory长的短时记忆长短时记忆长短时记忆模型

CNN:卷积神经网络【空间】 RNN: 递归神经网络【时域】 神经网络中,隐含层网络的输出作为下一时刻自身的输入–>一级一级会衰弱–》需要记忆封存的结构(LSTM) RNN->LSTM【记忆量的扩充】 描述

  • 非线性的运算关系叠加起来就是一个神经网络
  • 神经网络到CNN,RNN(空间和时间的扩展)
  • 卷积核:二维的处理算组,图像的处理
  • 神经网络到CNN就是一维到二维三维的转化,在空间上进行扩展
  • 神经网络到RNN(神经网络一维有个时间的延续,比如说语音)
  • 记忆GATE-根据输入的信息判断哪些是需要提前记下来的,在之后处理的时候选择要不要释放

小象学院公开课具体讲述了这一内容,下面是视频链接: 视频连接

0 人点赞