BERT-QE 此 repo 包含该论文的代码和资源: 。 在ACL 的发现:EMNLP 2020 中。 介绍 BERT-QE 利用 BERT 的优势来选择相关的文档块进行查询扩展。 BERT-QE 模型由三个阶段组成,其中可以使用不同大小的 BERT 模型来平衡有效性和效率。 下面列出了 Robust04 上的一些实验结果: 模型 襟翼 P @ 20 NDCG@20 地图 BERT-大 1.00 倍 0.4769 0.5397 0.3743 BERT-QE-LLL 11.19 倍 0.4888 0.5533 0.3865 BERT-QE-LMT 1.03 倍 0.4839 0.5483 0.3765 BERT-QE-LLS 1.30 倍 0.4869 0.5501 0.3798 要求 我们建议安装 。 然后使用 Anaconda 安装软件包: c
1