softmax函数:
交叉熵误差(Cross Entropy Error层):
这里的表示以为底数的自然对数,即,即。
是神经网络的输出,是正确解标签,中只有正确解标签(表示)索引为1,其他均为0(one-hot表示)
假设正确解标签索引为“2”,与之对应的神经网络输出是0.6,则交叉熵误差为;若“2”对应的输出是0.1,则交叉熵误差为
结果是传给Softmax层的反向传播的输入。
Softmax层的反向传播
前面的层(Cross Entropy Error层)的反向传播的值传过来。
正向传播时若有分支流出,则反向传播时它们的反向传播的值会相加。 因此,这里分成了三支的反向传播的值会被求和。然后, 还要对这个相加后的值进行“/”节点的反向传播,结果为 。 这里,是教师标签,也是one-hot向量。one-hot向量意味着中只有一个元素是1,其余都是0。因此,的和为1。
“+”节点原封不动地传递上游的值。
“×”节点将值翻转后相乘。这里,式子变形时使用了。