具有注意机制的递归神经网络模型已被证明对各种各样的序列到序列问题是非常有效的。然而,软注意机制在产生输出序列中的每个元素时对整个输入序列执行传递,这一事实排除了它们在在线设置中的使用,并导致二次时间复杂度。基于输入和输出序列元素之间的对齐是单调的问题这一观点,我们提出了一种学习单调对齐的端到端可微方法,该方法在测试时可以在线和线性计算注意力。我们在句子摘要、机器翻译和在线语音识别问题上验证了我们的方法,并取得了与现有序列到序列模型相竞争的结果。
2021-06-29 09:09:27 1MB 递归网络神经