BERT-QE
此 repo 包含该论文的代码和资源:
。 在ACL 的发现:EMNLP 2020 中。
介绍
BERT-QE 利用 BERT 的优势来选择相关的文档块进行查询扩展。 BERT-QE 模型由三个阶段组成,其中可以使用不同大小的 BERT 模型来平衡有效性和效率。 下面列出了 Robust04 上的一些实验结果:
模型
襟翼
P @ 20
NDCG@20
地图
BERT-大
1.00 倍
0.4769
0.5397
0.3743
BERT-QE-LLL
11.19 倍
0.4888
0.5533
0.3865
BERT-QE-LMT
1.03 倍
0.4839
0.5483
0.3765
BERT-QE-LLS
1.30 倍
0.4869
0.5501
0.3798
要求
我们建议安装 。 然后使用 Anaconda 安装软件包:
c
1