lstm+attention在文本分类中的python代码文件,,,,,
2019-12-21 20:48:32 6KB s'j'm
1
Attention-CNN 注意力机制细腻度图片分类。 ResNet改造
2019-12-21 20:47:23 20KB CNN ResNet 注意力机制
1
Attention Model在Image Caption、Machine Translation、Speech Recognition等领域上有着不错的结果。那么什么是Attention Model呢?举个例子,给下面这张图片加字幕(Image Caption):一只黄色的小猫带着一个鹿角帽子趴在沙发上。可以发现在翻译的过程中我们的注意力由小猫到鹿角帽子再到沙发(小猫→鹿角帽子→沙发)。其实在很多和时序有关的事情上,人类的注意力都不是一成不变的,随着事情(时间)发展,我们的注意力不断改变。
2019-12-21 20:31:39 2.77MB attention 深度学习
1
该压缩包为Attention is all you need,里面包括tensorflow以及keras版本的代码,还有论文Attention is all you need,性价比很高,欢迎大家一起学习!
2019-12-21 20:00:28 1.01MB tensorflow keras python Self
1
该代码为基于Keras的attention实战,环境配置: Wn10+CPU i7-6700 、Pycharm 2018、 python 3.6 、、numpy 1.14.5 、Keras 2.0.2 Matplotlib 2.2.2 经过小编亲自调试,可以使用,适合初学者从代码的角度了解attention机制。
2019-12-21 20:00:28 1.14MB Keras Attention Python
1
cnn +rnn +attention 以及CTC-loss融合的文字识别代码,基于tensorflow实现,要的拿去不客气,样本使用自我合成的数据,可自己添加,有些人傻的,上来就说不能直接运行,大爷的说了要添加训练样本,傻吗。。。
2019-12-21 19:59:04 16KB crnn tensorflow ctc
1
“A Model of saliency Based Visual Attention for Rapid Scene Analysis”文章的中文PPT讲解
2019-12-21 19:33:18 14.84MB Saliency 图像显著性 视觉注意
1
从深度学习的角度出发,提出了一种基于Attention 的双向长短时记忆网络(bidirectional long short-term memory,BLSTM)与条件随机场(conditional random fields,CRF)相结合的领域术语抽取模型(BLSTM_Attention_CRF 模型),并使用基于词典与规则相结合的方法对结果进行校正,准确率可达到 86%以上,该方法切实可行。
2019-12-21 19:28:01 1.48MB Attention CRF BLSTM 命名实体抽取
1
该代码为基于RNN的Tensorflow实现文本分类任务的注意力机制,笔者亲测有效,不需要环境配置等,欢迎大家下载。
2019-12-21 18:50:39 16.26MB tensorflow rnn attention nlp
1
该代码是CVPR2018一篇关于文本到图像合成的文章,经过测试可以使用
2019-12-21 18:50:39 35.95MB GAN Attention Network
1