ReLU激活功能并不完美. 它有一个被称为 “ReLU 死区” 的问题:在训练过程中,一些神经元会“死亡”,即它们停止输出 0 以外的任何东西.在某些情况下,你可能会发现你网络的一半神经元已经死亡,特别是使用大学习率时. 在训练期间,如果神经元的权重得到更新,使得神经元输入的加权和为负,则它将开始输出 0 .当这种情况发生时,由于当输入为负时,ReLU函数的梯度为0,神经元就只能输出0了. 为了解决这个问题,你可能需要使用 ReLU 函数的一个变体,比如 leaky ReLU.这个函数定义为Le