浅层神经网络 1.激活函数 在神经网络中,激活函数有很多种,常用的有sigmoid()函数,tanh()函数,ReLu函数(修正单元函数),泄露ReLu(泄露修正单元函数).它们的图形如下: sigmoid()激活函数,范围是y属于{0, 1},所以0<= y <=1.但是sigmoid函数平均收敛是1,最后的效果可能不太好. 在这个基础上有了tanh激活函数.图形如下: 主要是把sigmoid函数平移得到的.但是这样会有了优化,最终的平均收敛值为0,训练效果更好.所以在实际中,一般是选用ta…