以下附上最新知识图谱推理(共包含50页ppt),由Salesforce首席科学家Richard Socher撰写发布。
2021-08-19 16:22:07 5.98MB 知识图谱推理
1
TranE是一篇Bordes等人2013年发表在NIPS上的文章提出的算法。它的提出,是为了解决多关系数据(multi-relational data)的处理问题。我们现在有很多很多的知识库数据knowledge bases (KBs),比如Freebase、 Google Knowledge Graph 、 GeneOntology等等。 TransE的直观含义,就是TransE基于实体和关系的分布式向量表示,将每个三元组实例(head,relation,tail)中的关系relation看做从实体head到实体tail的翻译(其实我一直很纳闷为什么叫做translating,其实就是向量相加),通过不断调整h、r和t(head、relation和tail的向量),使(h + r) 尽可能与 t 相等,即 h + r = t。 以前有很多种训练三元组的方法,但是参数过多,以至于模型过于复杂难以理解(作者表达的意思就是,我们的工作效果和你们一样,但我们的简单易扩展)。(ps:作者以前也做过类似的工作,叫做Structured Embeddings,简称SE,只是将实体转为向量,关系是一个矩阵,利用矩阵的不可逆性反映关系的不可逆性。距离表达公式是1-norm)。
2021-04-12 15:18:00 9.25MB 知识图谱推理
1
知识推理是在已有的事实和逻辑规则的基础上推理新知识的机制一般来说,知识推理是运用已知知识的过程知识推断新知识。 给出知识图推理定义、知识图推理方法、知识图推理应用和机遇与挑战
2021-03-30 13:50:05 2.17MB 知识图谱 知识推理 总结 综述
1
转自:https://dl.ccf.org.cn/lecture/lectureDetail?id=4663454624843776。 陈华钧,浙江大学阿里巴巴知识引擎联合实验室负责人。 摘要:知识图谱表示的向量化使得我们可以实现更易于泛化的可微分推理。然而, 基于表示学习实现的知识图谱推理和链接预测丢失了传统符号计算方法的可解释性,即:模型无去对基于向量计算或神经网络训练后得出的推理结论进行解释,导致只知结果但不知为什么。在很多真实的应用场景下,黑盒模型的可解释性缺乏导致很多应用不得不放弃采用表示学习方法 。本报告尝试探讨知识图谱与表示学习的可解释性之间的关系,具体针对基于表示学习实现的知识图谱推理的可解释性问题提出一些研究思路和解决方法,并结合真实的应用场景介绍相关的一些实践。
2021-03-25 11:52:31 5.35MB 知识图谱 可解释
1
在这次演讲中,我将介绍我们在学习知识图推理逻辑规则方面的最新进展。逻辑规则在用于预测和推广到其他任务时提供了可解释,因此是学习的关键。现有的方法要么面临在大搜索空间中搜索的问题(如神经逻辑编程),要么由于稀疏奖励而无效优化(如基于强化学习的技术)。为了解决这些局限性,本文提出了一个称为RNNLogic的概率模型。
2021-02-15 11:08:14 2.24MB 知识图谱推理 逻辑规则
1
知识图谱推理方向的基础算法Path Ranking Algorithm详解
2019-12-21 20:11:47 964KB 知识图谱推理
1