一.经验风险最小化 1.有限假设类情形 对于Chernoff bound 不等式,最直观的解释就是利用高斯分布的图象.而且这个结论和中心极限定律没有关系,当m为任意值时Chernoff bound均成立,但是中心极限定律不一定成立. 随着模型复杂度(如多项式的次数.假设类的大小等)的增长,训练误差逐渐降低,而一般误差先降低到最低点再重新增长.训练误差降低,是因为模型越复杂,对于训练集合的拟合就越好.对于一般误差,最左边的端点表示欠拟合(高偏差),最右边的端点表示过拟合(高方差),最小化一般误差时…