多层感知机模型讲解

2020-01-03 10:06:36 浏览数 (1)

具有多层输出的感知机如下图所示:

图中节点上的符号表示的含义是:

  • $x^1_k$代表第1层上的第k个节点
  • $O^1_k$同样代表第1层上的第k个节点

若能求出$frac{nabla E}{nabla w_{jk}}$的结果,便可知道所有的梯度信息

Derivative

首先我们定义$E=frac{1}{2}sum_i(O^1_i - t_i)^2$

$$ begin{align*} frac{nabla E}{nabla{w_{jk}}} &= (O^1_k - t_k)frac{nabla O^1_k}{nabla w_{jk}} \ &= (O^1_k - t_k)frac{nabla sigma(x^1_k)}{nabla w_{jk}} \ &= (O_k^1-t_k)sigma(x_k^1)(1-sigma(x_k^1))frac{nabla x_k^1}{nabla w_{jk}} \ &= (O_k^1-t_k)O^1_k(1-O^1_k)x^0_j \ end{align*} $$

由推导结果可看出,一条边上的输出结果只与该线上的输入值$x^0_j$和$O^1_k$,因此对于一个多输出的感知机,对比单输出的感知机,改变了输出节点上的取值。单层为$O_0$,多层为$(O_k^1-t_k)$

代码语言:javascript复制
import torch
import torch.nn.functional as F

x = torch.randn(1,10) # dim=1,len=10, x为[1,10]的矩阵
w = torch.randn(2, 10, requires_grad=True) # w为[2,10]的矩阵

o = torch.sigmoid(x@w.t()) # o为[1,2]的矩阵
print("o.shape: ", o.shape)

loss = F.mse_loss(input=o, target=torch.ones(1, 2))
print("loss: ", loss)
loss.backward()
print("w.grad: ", w.grad)
sum

0 人点赞