之前神经网络火过一段时间,但是后来又淡出了,后来又火了,尤其是到2012年真的像发水一样. 之前为什么不火了呢,因为人们发现网络浅了吧,没什么优势.网络深了吧,又会出现vanishing gradient,无法训练. 看文章也没看到有特别提到为什么现在又能训练了. 调研了一下,是因为几个原因吧. 1. 现在的网络中的激活函数变了,由原来的sigmoid变成了relu,这个从relu的分布来看,限制了误差的无限变化. 2. 计算资源变好了.原来的计算资源比较差,训练的话不能一点点调,但是学习率设置…