该段Tensorflow代码可用于文本分类,和情感分类。其主要特点是,在同一份代码中,同时实现两张张量图,一张用于训练,另一张用于测试。并做交叉验证。
2019-12-21 22:21:19 11KB Tensorflow python BiLSTM
1
Attention.zip文件中总结了几种关于注意力机制的代码,有keras和tensorflow,还有PyTorch框架的
2019-12-21 22:17:10 5KB Attention 注意力机制 代码 keras
1
这是一个视频的字幕,使用方法见这里:https://blog.csdn.net/yj13811596648/article/details/89354314
2019-12-21 22:12:00 51KB attent abstra
1
注意力机制是一种信息获取的通用机制,应用于从大量源数据中获取特定关键信息而避免对所有数据进行处理的场景。 注意力模型最近几年在深度学习各个领域被广泛使用,无论是图像处理、语音识别还是自然语言处理的各种不同类型的任务中,都很容易遇到注意力模型的身影。所以,了解注意力机制的工作原理对于关注深度学习技术发展的技术人员来说有很大的必要。
2019-12-21 21:58:18 2.87MB attention 注意力机制
1
基于卷积神经网络和注意力模型的文本情感分析 CNN Attention
2019-12-21 21:50:54 438KB CNN Attention
1
attention is all you need 讲解PPT 附带注释
2019-12-21 21:45:47 10.75MB 机器翻译
1
lstm+attention在文本分类中的python代码文件,,,,,
2019-12-21 20:48:32 6KB s'j'm
1
Attention-CNN 注意力机制细腻度图片分类。 ResNet改造
2019-12-21 20:47:23 20KB CNN ResNet 注意力机制
1
Attention Model在Image Caption、Machine Translation、Speech Recognition等领域上有着不错的结果。那么什么是Attention Model呢?举个例子,给下面这张图片加字幕(Image Caption):一只黄色的小猫带着一个鹿角帽子趴在沙发上。可以发现在翻译的过程中我们的注意力由小猫到鹿角帽子再到沙发(小猫→鹿角帽子→沙发)。其实在很多和时序有关的事情上,人类的注意力都不是一成不变的,随着事情(时间)发展,我们的注意力不断改变。
2019-12-21 20:31:39 2.77MB attention 深度学习
1
该压缩包为Attention is all you need,里面包括tensorflow以及keras版本的代码,还有论文Attention is all you need,性价比很高,欢迎大家一起学习!
2019-12-21 20:00:28 1.01MB tensorflow keras python Self
1