BERT遇上知识图谱:预训练模型与知识图谱相结合的研究进展

上传者: syp_net | 上传时间: 2021-09-09 11:33:39 | 文件大小: 10.7MB | 文件类型: ZIP
随着BERT等预训练模型横空出世,NLP方向迎来了一波革命,预训练模型在各类任务上均取得了惊人的成绩。随着各类预训练任务层出不穷,也有部分研究者考虑如何在BERT这一类模型中引入或者强化知识图谱中包含的信息,进而增强BERT对背景知识或常识信息的编码能力。

文件下载

资源详情

[{"title":"( 8 个子文件 10.7MB ) BERT遇上知识图谱:预训练模型与知识图谱相结合的研究进展","children":[{"title":"ERNIE:Enhanced Language Representation with Informative Entities.pdf.pdf <span style='color:#111;'> 1.72MB </span>","children":null,"spread":false},{"title":"Exploiting Structured Knowledge in Text via Graph-Guided Representation Lear.pdf.pdf <span style='color:#111;'> 931.21KB </span>","children":null,"spread":false},{"title":"JAKET:Joint Pre-training of Knowledge Graph and Language Understanding.pdf.pdf <span style='color:#111;'> 406.75KB </span>","children":null,"spread":false},{"title":"KEPLER:A Unified Model for Knowledge Embedding and Pre-trained Language Rep.pdf.pdf <span style='color:#111;'> 2.02MB </span>","children":null,"spread":false},{"title":"CoLAKE:Contextualized Language and Knowledge Embedding.pdf.pdf <span style='color:#111;'> 2.63MB </span>","children":null,"spread":false},{"title":"K-ADAPTER:Infusing Knowledge into Pre-Trained Models with Adapters.pdf.pdf <span style='color:#111;'> 1.11MB </span>","children":null,"spread":false},{"title":"Integrating Graph Contextualized Knowledge into Pre-trained Language Models.pdf.pdf <span style='color:#111;'> 2.95MB </span>","children":null,"spread":false},{"title":"K-BERT:Enabling Language Representation with Knowledge Graph.pdf.pdf <span style='color:#111;'> 484.37KB </span>","children":null,"spread":false}],"spread":true}]

评论信息

免责申明

【只为小站】的资源来自网友分享,仅供学习研究,请务必在下载后24小时内给予删除,不得用于其他任何用途,否则后果自负。基于互联网的特殊性,【只为小站】 无法对用户传输的作品、信息、内容的权属或合法性、合规性、真实性、科学性、完整权、有效性等进行实质审查;无论 【只为小站】 经营者是否已进行审查,用户均应自行承担因其传输的作品、信息、内容而可能或已经产生的侵权或权属纠纷等法律责任。
本站所有资源不代表本站的观点或立场,基于网友分享,根据中国法律《信息网络传播权保护条例》第二十二条之规定,若资源存在侵权或相关问题请联系本站客服人员,zhiweidada#qq.com,请把#换成@,本站将给予最大的支持与配合,做到及时反馈和处理。关于更多版权及免责申明参见 版权及免责申明