总结文档
2021-03-11 16:02:14 2.61MB 注意力模型 总结 论文总结
1
Tensorflow 2 DA-RNN 的Tensorflow 2(Keras)实现, 论文: : 安装 pip install da-rnn 用法 from da_rnn import ( DARNN ) model = DARNN ( 10 , 64 , 64 ) y_hat = model ( inputs ) Python Docstring符号 在此项目的方法的文档字符串中,我们具有以下表示法约定: variable_{subscript}__{superscript} 例如: y_T__i表示 ,在时间T第i个预测值。 alpha_t__k表示 ,注意权重在时间t测量第k个输入特征(驾驶序列)的重要性。 DARNN(T,m,p,y_dim = 1) 以下(超级)参数的命名与本文一致,但本文未提及的y_dim除外。 T int窗口的长度(时间步长) m in
1
用BiLSTM预测单特征时序数据和多特征时序数据,并提供样例数据。可以将自己的数据根据样例数据的格式进行修改,则可直接运行
1
Attention with structure regularization for action recognition
2021-02-08 19:06:14 1.62MB 研究论文
1
POI推荐系统的论文,原文是英文,我做了中文翻译以及一点小小的整理
2021-02-06 13:14:18 129KB poi 推荐系统
基于知识库的中文问答系统(biLSTM)
2021-02-06 13:14:18 1.83MB kbqa
1
Attention Mechanism注意力机制介绍,文本识别、语音识别、机器翻译
2020-02-10 03:07:05 1.91MB Slide
1
基于BiLSTM + Attention实现的简单的关系抽取模型,代码效果并不十分理想,代码上传目的是为大家提供基本的实现思路。
2020-01-19 03:11:27 33.6MB BiLSTM+Attention
1
使用深度学习方法BiLSTM,并结合CRF模型的标签依赖性特点,解决命名实体识别的序列标注问题
2020-01-03 11:37:23 123KB BiLSTM-CRF Deep Learnin
1