multi lstm attention时序之间,inputs维度是1024,加上attention之后维度是2018,输出1024,时序之间下次再转成2048的inputs 但是如果使用multi lstm的话inputs维度是1024,加上attention之后维度是2018,输出1024,这个时候直接循环进入下一个lstm,不会加入attention,会导致input是1024,使用上一个cell的参数的话报错…
Attention U-Net: Learning Where to Look for the Pancreas 2019-09-10 09:50:43 Paper: https://arxiv.org/pdf/1804.03999.pdf Poster: https://www.doc.ic.ac.uk/~oo2113/posters/MIDL2018_poster.pdf Code: https://github.com/ozan-oktay/Attention-Gated-Networks…