Attention is all you need 解读及详细代码,每个模块都有注释,代码详细易懂。哈佛出品,值得阅读。Transformer最基本的结构,也是BERT的基本结构,NLP和推荐都需要用到。
2022-12-07 12:27:41 2.57MB attention Transformer BERT NLP
1
基于seq2seq+attention实现文本摘要任务——数据集基于seq2seq+attention实现文本摘要任务——数据集基于seq2seq+attention实现文本摘要任务——数据集基于seq2seq+attention实现文本摘要任务——数据集基于seq2seq+attention实现文本摘要任务——数据集基于seq2seq+attention实现文本摘要任务——数据集基于seq2seq+attention实现文本摘要任务——数据集基于seq2seq+attention实现文本摘要任务——数据集基于seq2seq+attention实现文本摘要任务——数据集基于seq2seq+attention实现文本摘要任务——数据集基于seq2seq+attention实现文本摘要任务——数据集基于seq2seq+attention实现文本摘要任务——数据集基于seq2seq+attention实现文本摘要任务——数据集基于seq2seq+attention实现文本摘要任务——数据集基于seq2seq+attention实现文本摘要任务——数据集基于seq2seq+attention
2022-11-24 11:25:54 10.17MB 深度学习
1、端到端asr模型conformer 在车机上的高通平台snpe移植成功 2、op替换 3、前向代码修改支持
2022-11-16 17:56:40 9KB 语音识别车机高通平台移植
1
attention rnn encoderdecoder
2022-11-08 14:24:38 227KB attention
1
encoderdecoder_rnnattention
2022-11-06 21:21:53 54KB attention
1
cnn-bilstm-attention-time-series-prediction_keras-master
2022-10-30 18:02:39 498KB cnn keras 文档资料 python
1
利用CNN_LSTM_ATTENTION模型对寿命的预测
2022-10-16 20:40:54 221KB lstm cnn 深度学习 人工智能
本文设计了一个自我监督的注意模块,该模块可以识别感兴趣的显着区域,而无需明确的手工标记注释。在现有的以CNNs为特征提取器的深度RL方法中,可以直接即插即用。 注意模块学习的是前景注意掩码,而不是预定义的关键点数量。
2022-10-12 17:06:59 7.33MB 自注意力
1
论文Attention Is All You Need的翻译
2022-09-08 09:05:12 725KB
1
基于attention文本分类代码基于attention文本分类代码基于attention文本分类代码