交叉熵 交叉熵是用于解决使用二次代价函数时当单个神经元接近饱和的时候对权重和bias权重学习的影响.这个公式可以看出,当神经元饱和的时候,sigma的偏导接近于0,w的学习也会变小.但是应用交叉熵作为代价函数的话,只有当所有的神经元接近0或者1的时候才会出现这种情况.它解决了初始化w和bias时坏的w和bias带来的影响. 交叉熵对w求偏导: ,,,,有 最后得出: 由该公式可以看出,只有大部分样例的输出接近期望值时,w的学习才会变缓.bias同理. 上面的讨论只针对有一个神经元的网络. 如果…