[转载]机器学习优化方法总结:SGD,Momentum,AdaGrad,RMSProp,Adam https://blog.csdn.net/u010089444/article/details/76725843 这篇博客格式不好直接粘贴,就不附原文了. 有几个点可以注意下,原文没有写的很清楚: 优化方法的作用是什么? 可以说,没有优化方法,机器学习模型一般一样可以执行,所以说它并不是必须的.但是优化方法可以动态调整学习率以及影响迭代中参数调整的方向和幅度,可以加速收敛,是对原方法的一种优化.…