REALM Retrieval-Augmented Language Model Pre-Training 翻译.pdf

上传者: 21749493 | 上传时间: 2022-10-14 00:25:44 | 文件大小: 727KB | 文件类型: PDF
语言模型预训练已经显示出可以捕获数量惊人的世界知识,这对于NLP任务(例如问题
解答)至关重要。但是,此知识隐式存储在神经网络的参数中,需要更大的网络才能
覆盖更多的事实。
为了以更模块化和可解释的方式捕获知识,我们使用潜在的知识检索器增强了语言模
型的预训练,检索器使模型可以从预训练、微调和推理期间使用的大型语料库(如
Wikipedia)中检索并使用文档。首次,我们展示了如何使用蒙版语言建模作为学习信
号并通过考虑数百万个文档的检索步骤进行反向传播,从而以无监督的方式对这种知
识检索器进行预训练。
我们通过微调开放域问答(Open-QA)的挑战性任务,证明了检索增强语言模型预训练
(REALM)的有效性。我们在三个流行的Open-QA基准测试中与最先进(SOTA)的显式和隐
式知识存储模型进行了比较,发现我们在性能上优于所有以前的方法(绝对精度为
4-16%),同时还提供了定性优势,例如可解释性和模块化。

文件下载

评论信息

免责申明

【只为小站】的资源来自网友分享,仅供学习研究,请务必在下载后24小时内给予删除,不得用于其他任何用途,否则后果自负。基于互联网的特殊性,【只为小站】 无法对用户传输的作品、信息、内容的权属或合法性、合规性、真实性、科学性、完整权、有效性等进行实质审查;无论 【只为小站】 经营者是否已进行审查,用户均应自行承担因其传输的作品、信息、内容而可能或已经产生的侵权或权属纠纷等法律责任。
本站所有资源不代表本站的观点或立场,基于网友分享,根据中国法律《信息网络传播权保护条例》第二十二条之规定,若资源存在侵权或相关问题请联系本站客服人员,zhiweidada#qq.com,请把#换成@,本站将给予最大的支持与配合,做到及时反馈和处理。关于更多版权及免责申明参见 版权及免责申明