本文主要讲解了抛弃之前传统的encoder-decoder模型必须结合cnn或者rnn的固有模式,只用Attention。希望对您的学习有所帮助。本文来自网络,由火龙果软件刘琛编辑推荐AttentionIsAllYouNeed这篇论文主要介绍了一种新的机器翻译模型,该模型开创性的使用了很多全新的计算模式和模型结构。综合分析了现有的主流的nlp翻译模型的即基于CNN的可并行对其文本翻译和基于RNN的LSTM门控长短期记忆时序翻译模型,总结了两个模型的优缺点并在此基础上提出了基于自注意力机制的翻译模型transformer,transformer模型没有使用CNN和RNN的方法和模块,开创性的将注
1