Loss function = Loss term(误差项) + Regularization term(正则项),我们先来研究误差项:首先,所谓误差项,当然是误差的越少越好,由于不存在负误差,所以为0是极限,而误差得越多当然也越不好 1. Gold function,理想中的效果 正样本,损失为0:为负样本,损失为1 2. Hinge function,应用于SVM 线性划分,f = max(0, 1 - m(x)) m(x) > 0,正样本,正得越厉害,损失越少:m(x) < 0,负样本,…