在深度学习中会遇到各种各样的任务,我们期望通过优化最终的loss使网络模型达到期望的效果,因此loss的选择是十分重要的. cross entropy loss cross entropy loss和log loss,logistic loss是同一种loss.常用于分类问题,一般是配合softmax使用的,通过softmax操作得到每个类别的概率值,然后计算loss. softmax函数为: ,, 除了e,还可以使用另一个底数b,b>0,选择一个较大的b值,将创建一个概率分布,该分布更集中于输…