我们都知道随着神经网络深度的加深,训练过程中会很容易产生误差的积累,从而出现梯度爆炸和梯度消散的问题,这是由于随着网络层数的增多,在网络中反向传播的梯度会随着连乘变得不稳定(特别大或特别小),出现最多的还是梯度消散问题.残差网络解决的就是随着深度增加网络性能越来越差的问题. resnet中最典型的模块就是上面的部分,通过这样一个“短路”的方式,使得短路前的层再差也能保证其训练好,即,如果被短路的层能被训练好(能提升网络性能),则保留其路线,否则跳过它们不进行训练 在resnet的这样一个短路un