Attention with structure regularization for action recognition
2021-02-08 19:06:14 1.62MB 研究论文
1
POI推荐系统的论文,原文是英文,我做了中文翻译以及一点小小的整理
2021-02-06 13:14:18 129KB poi 推荐系统
Attention Mechanism注意力机制介绍,文本识别、语音识别、机器翻译
2020-02-10 03:07:05 1.91MB Slide
1
基于BiLSTM + Attention实现的简单的关系抽取模型,代码效果并不十分理想,代码上传目的是为大家提供基本的实现思路。
2020-01-19 03:11:27 33.6MB BiLSTM+Attention
1
Attention.zip文件中总结了几种关于注意力机制的代码,有keras和tensorflow,还有PyTorch框架的
2019-12-21 22:17:10 5KB Attention 注意力机制 代码 keras
1
这是一个视频的字幕,使用方法见这里:https://blog.csdn.net/yj13811596648/article/details/89354314
2019-12-21 22:12:00 51KB attent abstra
1
注意力机制是一种信息获取的通用机制,应用于从大量源数据中获取特定关键信息而避免对所有数据进行处理的场景。 注意力模型最近几年在深度学习各个领域被广泛使用,无论是图像处理、语音识别还是自然语言处理的各种不同类型的任务中,都很容易遇到注意力模型的身影。所以,了解注意力机制的工作原理对于关注深度学习技术发展的技术人员来说有很大的必要。
2019-12-21 21:58:18 2.87MB attention 注意力机制
1
基于卷积神经网络和注意力模型的文本情感分析 CNN Attention
2019-12-21 21:50:54 438KB CNN Attention
1
attention is all you need 讲解PPT 附带注释
2019-12-21 21:45:47 10.75MB 机器翻译
1