本资源是对2021年收录于ACM的最新POI论文的精准翻译,并且经过严谨排版,公式整齐,保证阅读流畅无障碍。对不喜欢看英文文献或想节约时间的小伙伴强烈推荐!!!
2021-04-20 10:01:41 1.40MB 英文翻译 论文翻译 兴趣点推荐 POI推荐
数据集—基于TF NMT利用带有Attention的 ED模型训练、测试(中英文平行语料库)实现将英文翻译为中文的LSTM翻译(中英文平行语料库)训练数据集—train
2021-04-20 09:20:56 451B 中英文语料库 训练数据集
1
Attention Is All You Need 中文翻译
2021-04-19 20:39:30 1.34MB Attention  中文翻译
1
论文An Attention-based Spatiotemporal LSTM Network for的代码和数据集
2021-04-16 14:07:58 79.75MB poi 机器学习
经典的LSTM分类模型,一种是利用LSTM最后时刻的输出作为高一级的表示,而另一种是将所有时刻的LSTM输出求平均作为高一级的表示.这两种表示都存在一定的缺陷,第一种缺失了前面的输出信息,另一种没有体现每个时刻输出信息的不同重要程度.为了解决此问题,引入 Attention 机制,对 LSTM 模型进行改进,设计了 LSTM-Attention 模型.实验结果表明: LSTM 分类模型比传统的机器学习方法分类效果更好,而引入 Attention 机制后的 LSTM 模型相比于经典的文本分类模型,分类效果也有了一定程度的提升.
2021-04-14 13:05:15 468KB LSTM Attention
1
An Attention-Based Unsupervised Adversarial Model for Movie Review Spam Dete.pdf
2021-04-11 22:00:21 3.15MB 虚假评论
1
Attention is All You Need》中文版,自己学习时翻译的,不想下载的同学可以去我的blog看:https://blog.csdn.net/nocml/article/details/103082600
2021-04-11 20:32:39 1.68MB NLP Transformer 深度学习
1
近年来,深度学习的研究越来越深入,在各个领域也都获得了不少突破性的进展。基于注意力(attention)机制的神经网络成为了最近神经网络研究的一个热点,本人最近也学习了一些基于attention机制的神经网络在自然语言处理(NLP)领域的论文,现在来对attention在NLP中的应用进行一个总结,和大家一起分享。
2021-04-04 12:04:28 1.91MB Attention Mechan
1
在人类中,注意力是所有感知和认知操作的核心属性。考虑到我们处理竞争性信息来源的能力有限,注意力机制选择、调整和关注与行为最相关的信息。
2021-04-03 09:14:55 4.49MB 注意力模型
1
attention mechanisms with tensorflow
2021-03-29 19:14:05 2.1MB tensorflow
1