MMEA:多模态知识图的实体对齐 在第13届知识科学,工程与管理国际会议(KSEM'2020)上发表的论文“ ”的模型代码和数据集。 实体对齐在知识图(KG)集成中起着至关重要的作用。 尽管已经在探索不同知识图之间的关系嵌入的关联上进行了大量的努力,但是它们可能无法在实际应用场景中有效地描述和集成多模式知识。 为此,在本文中,我们提出了一种新颖的解决方案,称为多模式实体对齐(MMEA),以解决多模式视图中的实体对齐问题。 具体来说,我们首先设计一种新颖的多模式知识嵌入方法,以分别生成关系知识,视觉知识和数字知识的实体表示。 沿着这条路线,将通过多模式知识融合模块集成不同类型知识的多种表示形式。 在两个公共数据集上进行的大量实验清楚地表明,与最新方法相比,MMEA模型的有效性有了很大的提高。 数据集 来自论文“ ”的三个具有关系,数值和视觉知识的公共多模,即FB15k,DB15k和Y
1
基于知识图嵌入的推荐系统 基于知识图嵌入的推荐系统 本系统是一个基于知识图嵌入的商品推荐系统,以下是该系统的详细介绍,基本代码都是自己所写,TransE和Rescal方法实现部分是照着论文与相关代码自己进行的复现,并且相关代码中都有我写的一些注释。 1.generate_data.py是用于生成模拟数据,在进行真实使用时可以参照所生成的模拟数据的格式进行数据录入 2.data文件夹下需要有entities.txt以及relations.txt两个数据,他们分别是实体(people和items)的名称以及索引号,以及关联的名称以及索引号,关联也可以有多种,然后该文件夹下还应该有train.txt,valid.txt和test.txt,作为模型训练的依托,其中的neg.txt可要可不要,这个文件并不参与模型的训练过程 3.dataset.py文件主要是模型训练中处理数据的代码,model.p
2022-11-21 21:20:29 1.77MB 系统开源
1
知识驱动对话2019-lic 2019语言与智能技术竞赛B榜第5名方案由于线上部署对时间有要求,最终提交人工评估的版本删除了一些主题特征,导致模型结果有所下降,最终人工评估第9名。A榜第四B榜第五 概述 为了建立主动对话聊天机器人,我们使用了所谓的世代重排方法。 首先,生成模型(Multi-Seq2Seq)产生一些候选答案。 接下来,重新排序模型负责执行查询-答案匹配,以针对所产生的候选者尽可能多地选择答复。 现在可以通过详细的描述我们的解决方案的论文,请检查。 数据扩充 我们使用了四种数据增强技术:实体泛化,知识选择,切换,对话提取来构建用于训练Seq2Seq模型的多个不同数据集。 可以使用脚本Seq2Seq / preclean _ *。py稍加修改参数即可获得6个数据集。 Seq2Seq模型 为了整体目的,我们选择不同的编码器和解码器,即LSTM单元和Transformer。 这部
2022-11-18 09:17:16 37.21MB 系统开源
1
relation-graph 这是一个Vue关系图谱组件,可以展示如组织机构图谱、股权架构图谱、集团关系图谱等知识图谱,可提供多种图谱布局,包括树状布局、中心布局、力学布局自动布局等。 这个项目使用典型的vue编程方式,代码简单易懂。如果需要实现一些自定义的高级功能,你可以直接使用源码作为一个component放到你的项目中去用,轻松、任意的修改。 详细使用方法、配置选项、在线demo,以及可视化的配置工具,可以访问这个网址: 快速使用: npm install --save relation-graph