神经元:
一个神经元:多个输入经过数学公式计算,产生一个输出
给神经网络喂入数据:
每个输入会进行加权乘weight。
最后运算结果会加上一个偏置量bias。
首次创建神经网络,weight是个随机数,可以正负。bias初始化为0.
激活函数activation function:将阶段输出值使用一个函数进行数值变化。
Sigmoid或者(S函数、乙状函数):将输出归一化映射到 [0,1]区间。
另一种激活函数:ReLU:线性整流函数,因其形状,也称为斜坡函数。
激活函数通过非线性变化,使得结果更容易分类。
activation:激活
神经网络
因为需要两个分类,所以神经网络需要两个神经元
hidden layer:隐藏层。
forward propogation:前向传播。
隐藏层的过程也称为前向传播。
多层隐藏层
back propogation:后向传播:
现在神经网络开始训练数据,学习如何进行分类。为了学习如何训练,神经网络使用了一个算法叫后向传播
分为3个阶段:前向传播、误差估计、更新weight和bias
损失函数:cost function,用以计算输出值和目标值之间的差距。
分别计算蓝莓的损失值和草莓损失值,叠加即为网络的损失值。
损失值规律曲线。训练的目标是找到最小损失值的weights。
梯度下降:gradient descent。找寻梯度下降的规律。
每次的梯度下降计算出一个新的weight
epoch:每次的梯度下降耗时
训练速度不宜太大也不宜太小
把数据集归为两个分类,颜色越深代表置信概率越大。