即使对于有经验的用户,制定和重新制定可靠的文本查询也已被认为是信息检索(IR)中的一项艰巨任务。 大多数现有的查询扩展方法,尤其是基于隐式相关性反馈的查询扩展方法,都利用用户的历史交互数据,例如单击,滚动和查看文档的时间,来推导完善的查询模型。 进一步期望,如果我们可以通过直接在术语级别捕获用户当前的交互来实时挖掘用户的潜在查询意图,则用户的搜索体验将得到极大改善。 在本文中,我们提出了一种基于实时眼动跟踪的查询扩展方法,该方法能够:(1)利用眼动跟踪技术自动捕获用户正在查看的术语; (2)根据眼睛跟踪项并使用潜在狄利克雷分配(LDA)方法得出用户的潜在意图。 进行了系统的用户研究,实验结果证明了我们提出的方法的有效性。
2022-11-22 00:27:23 1.42MB Eye Tracking Query Expansion
1
BERT-QE 此 repo 包含该论文的代码和资源: 。 在ACL 的发现:EMNLP 2020 中。 介绍 BERT-QE 利用 BERT 的优势来选择相关的文档块进行查询扩展。 BERT-QE 模型由三个阶段组成,其中可以使用不同大小的 BERT 模型来平衡有效性和效率。 下面列出了 Robust04 上的一些实验结果: 模型 襟翼 P @ 20 NDCG@20 地图 BERT-大 1.00 倍 0.4769 0.5397 0.3743 BERT-QE-LLL 11.19 倍 0.4888 0.5533 0.3865 BERT-QE-LMT 1.03 倍 0.4839 0.5483 0.3765 BERT-QE-LLS 1.30 倍 0.4869 0.5501 0.3798 要求 我们建议安装 。 然后使用 Anaconda 安装软件包: c
1