本质上讲,Focal Loss 就是一个解决分类问题中类别不平衡.分类难度差异的一个 loss,总之这个工作一片好评就是了. 看到这个 loss,开始感觉很神奇,感觉大有用途.因为在 NLP 中,也存在大量的类别不平衡的任务.最经典的就是序列标注任务中类别是严重不平衡的,比如在命名实体识别中,显然一句话里边实体是比非实体要少得多,这就是一个类别严重不平衡的情况. 硬截断 整篇文章都是从二分类问题出发,同样的思想可以用于多分类问题.二分类问题的标准 loss 是交叉熵. 其中 y∈{0,1} 是真…