长短时记忆网络 循环神经网络很难训练的原因导致它的实际应用中很处理长距离的依赖.本文将介绍改进后的循环神经网络:长短时记忆网络(Long Short Term Memory Network, LSTM), 原始RNN的隐藏层只有一个状态,即h,它对于短期的输入非常敏感.那么如果我们再增加一个状态,即c,让它来保存长期的状态,这就是长短时记忆网络. 新增加的状态c,称为单元状态.我们把上图按照时间维度展开: 可以看到在t时刻,LSTM的输入有三个:当前时刻网络的输出值$x_t$.上一时刻LSTM的