TCN关注 带有关注层的时间卷积网络 模型的概念主要类似于 。 但是在此模型中,注意力层位于卷积层的每个顶层。 并且注意大小与SNAIL不同。 结果 数据集:无需预处理的 关注:0.82 无注意:0.81 我对结果的看法 agnews上的大多数简单模型都显示出0.81的精度。 (在 ,“ 上进行了测试,并使用了基于单词的嵌入) 因此,基于字符的模型具有0.82的准确性似乎是值得的。
2021-09-14 19:21:06 16KB pytorch tcn tcn-attention Python
1