转自:https://dl.ccf.org.cn/lecture/lectureDetail?id=4663454624843776。 陈华钧,浙江大学阿里巴巴知识引擎联合实验室负责人。 摘要:知识图谱表示的向量化使得我们可以实现更易于泛化的可微分推理。然而, 基于表示学习实现的知识图谱推理和链接预测丢失了传统符号计算方法的可解释性,即:模型无去对基于向量计算或神经网络训练后得出的推理结论进行解释,导致只知结果但不知为什么。在很多真实的应用场景下,黑盒模型的可解释性缺乏导致很多应用不得不放弃采用表示学习方法 。本报告尝试探讨知识图谱与表示学习的可解释性之间的关系,具体针对基于表示学习实现的知识图谱推理的可解释性问题提出一些研究思路和解决方法,并结合真实的应用场景介绍相关的一些实践。
2021-03-25 11:52:31 5.35MB 知识图谱 可解释
1
知识图谱导论(浙大陈华钧教授),共有6个章节(概览、表示与建模、存储与关联查询、构建与关系抽取、表示学习与关联推理、语义搜索与知识图谱问答)。
2020-01-03 11:36:05 60.06MB 知识图谱 浙大 陈华钧
1