BiLSTM CNN 在 Keras 中完成知识图谱 Keras 实现了题为“使用 CNN-BiLSTM 和注意力机制实现知识图完成的基于路径的推理方法”的论文。 给定一个候选关系和两个实体,它使用卷积运算和 BiLSTM 编码将实体连接到低维空间的路径。 还应用了一个注意力层来捕获候选关系与两个实体之间的每条路径之间的语义相关性,并从多条路径的表示中专注地提取推理证据以预测实体是否应该通过候选关系连接。 所需文件 data/processed_data.tar.gz - 包含具有关系和实体的接地路径的数据集文件(例如 e1、r1、e2、r2、e3)。 任务 - 可以从 [1] 下载。 为了生成诸如 (r1, r2, ..., rk) 之类的关系路径,我们使用了 [2]。 我们用于实验的原始知识图数据可以在 [1] 中找到,其中包括带有训练/测试三元组的任务数据集。 如果您使用我们的
2022-03-07 15:20:47 14KB Python
1
基于Attention机制的seq2seq模型的代码实现,用于对联生成
2022-02-25 18:39:24 19MB seq2seq attention
1
用于轨迹预测的 Transformer 网络 这是论文的代码 要求 pytorch 1.0+ 麻木 西比 熊猫 张量板 (项目中包含的是修改版) 用法 数据设置 数据集文件夹必须具有以下结构: - dataset - dataset_name - train_folder - test_folder - validation_folder (optional) - clusters.mat (For quantizedTF) 个人变压器 要训​​练,只需运行具有不同参数的train_individual.py 示例:训练 eth 的数据 CUDA_VISIBLE_DEVICES=0 python train_individualTF.py --dataset_name eth --name eth --max_epoch 240 --bat
1
2021AIWIN 手写体 OCR 识别竞赛总结(任务一),详见文章:https://blog.csdn.net/hhhhhhhhhhwwwwwwwwww/article/details/122563647?spm=1001.2014.3001.5501
2022-01-18 18:10:14 760.86MB ocr
bilstmcrf.zip
2022-01-16 12:05:33 11KB bilstm-crf 命名实体识别
1
【关于 NLP】 那些你不知道的事 作者:杨夕 项目地址: 个人介绍:大佬们好,我叫杨夕,该项目主要是本人在研读顶会论文和复现经典论文过程中,所见、所思、所想、所闻,可能存在一些理解错误,希望大佬们多多指正。 NLP 面经地址: 目录 【关于 信息抽取】 那些的你不知道的事 【关于 实体关系联合抽取】 那些的你不知道的事 【关于 命名实体识别】那些你不知道的事 【关于 关系抽取】那些你不知道的事 【关于 文档级别关系抽取】那些你不知道的事 【关于 知识图谱 】 那些的你不知道的事 【关于 实体链指篇】 那些的你不知道的事 【关于 实体消歧 】 那些的你不知道的事 【关于KGQA 】 那些的你不知道的事 【关于Neo4j 】 那些的你不知道的事 【关于 细粒度情感分析】 那些的你不知道的事 【关于 主动学习】 那些的你不知道的事 【关于 对抗训练】 那些的你不知道的事 【关于 GCN in
2022-01-03 15:01:38 294.61MB attention bert gcn relation-extraction
1
文章为对attention is all you need的论文解读,详细的剖析了该文章的思想。
2022-01-01 18:09:00 461KB attention, deep learning
1
RNN+Attention实现Seq2Seq中英文机器翻译
2021-12-27 19:08:29 256.6MB nlp RNN 机器翻译 attention
1
lambda.pytorch [NEW!]看看我们的最新作品在CVPR'21该桥梁卷积和自我关注运营商。 LambdaNetworks的PyTorch实现。 Lambda网络应用矩阵乘法的关联定律来逆转自我注意力的计算顺序,从而实现了有关内容交互的线性计算复杂性。 以前在和使用了类似的技术。 在另一个存储库签出一系列自我注意模块。 训练配置 ✓SGD优化器,初始学习率0.1,动量0.9,重量衰减0.0001 ✓时代130,批量大小256,8个Tesla V100 GPU,LR衰减策略余弦 ✓标签平滑0.1 训练有素的检查站 建筑学 参数 襟翼 前1名/前5名(%) 下载 Lambda-ResNet-50 14.995万 6.576克 78.208 / 93.820 | 引文 如果您发现此存储库对您的研究有用,请引用 @InProceedings { Li_2021_CVPR
2021-12-21 09:57:57 5KB pytorch imagenet attention pre-trained-model
1