在机器学习中,无论是分类还是回归,都可能存在由于特征过多而导致的过拟合问题.当然解决的办法有 (1)减少特征,留取最重要的特征. (2)惩罚不重要的特征的权重. 但是通常情况下,我们不知道应该惩罚哪些特征的权重取值.通过正则化方法可以防止过拟合,提高泛化能力. 先来看看L2正则化方法.对于之前梯度下降讲到的损失函数来说,在代价函数后面加上一个正则化项,得到 注意是从1开始的.对其求偏导后得到 然后得到梯度下降的表达式如下 注意当为0的时候,可以认为的值为0.可以看出没有正则化时,系数的权重为1,…