Question_Answering_on_SQuAD 用于提问和回答的Dyanamic Coattention网络。 要求: tqdm 张量板 Gensim 实施论文: 方法: DCN,也称为动态共同注意网络,是用于问答的端到端神经网络。 DCN由共同注意编码器和动态指针解码器组成。 共同注意编码器首先将问题和段落融合在一起,以生成一个面向问题的段落表示,称为大衣注意力编码,并将其馈送到动态指针解码器。 Dyanamic指针解码器由Maxout网络和Highway网络组成。 解码器输出两个值,分别是它在段落中预测的答案的开始索引和结束索引。 以DCN +的形式对上述方法进行了改进。 DCN的一个缺点是它仅具有一个单层的Coattention编码器。 DCN +由堆叠的涂层层组成,可帮助涂层编码器对输入进行更深入的表示。 已进行的另一项改进是将当前层的涂布强度输出与前一层的剩余输出
2023-04-13 19:45:17 18.45MB pytorch tkinter question-answering squad
1
带S-NET提取的MSMARCO(提取网) 的CNTK(Microsoft深度学习工具包)实现提取部分的并进行了一些修改。 该项目是为数据集设计的 代码结构基于 支持MSMARCO V1和V2! 要求 这是一些培训和评估所需的库。 一般的 python3.6 cuda-9.0(需要CNTK) openmpi-1.10(需要CNTK) gcc> = 6(需要CNTK) Python 请参考requirements.txt 使用预先训练的模型进行评估 此存储库提供了经过预训练的模型和经过预处理的验证数据集以测试性能 请下载和经过,并将它们分别放在MSMARCO/data和MSMARCO根目录中,然后在正确的位置将其解压缩。 代码结构应该像 MSMARCO ├── data │   ├── elmo_embedding.bin │   ├── test.tsv │   ├── vo
2023-04-13 15:17:51 2.48MB nlp cntk question-answering machine-comprehension
1
RAT-SQL 该存储库包含ACL 2020论文。 如果您在工作中使用RAT-SQL,请按以下方式引用: @inproceedings { rat-sql , title = " {RAT-SQL}: Relation-Aware Schema Encoding and Linking for Text-to-{SQL} Parsers " , author = " Wang, Bailin and Shin, Richard and Liu, Xiaodong and Polozov, Oleksandr and Richardson, Matthew " ,
1
Standford Question Answering Dataset (SQuAD) is a reading comprehension dataset by Standford University and has two versions. 斯坦福问答数据集是由斯坦福大学创建的阅读理解数据集,有两个版本。 Know What You Don’t Know- Unanswerable Questions for SQuAD paper.pdf LUKE.pdf SQuAD1.1.pdf SQuAD_dev_datasets.zip SQuAD_train_datasets.zip SQuAD_datasets.txt
2022-07-12 06:07:02 11.31MB 数据集
1
Match-LSTM和答案指针(Wang和Jiang,ICLR 2016) 此仓库尝试在同一张纸上重现2016年论文中的match-lstm和answer指针实验。 许多预处理锅炉代码来自Stanford CS224D。 代码的内容在qa_model.py中。 为了使代码正确,我不得不修改tensorflow的原始注意力机制实现。 给定一组段落,运行train.py训练模型,并运行qa_answer.py生成答案。 请通过与我联系以获取更多信息。 该代码还充当示例代码,展示了如何将tensorflow的注意力机制连接在一起。 截至2017年8月13日,此类示例在任何地方都不可用。 预处理
2022-06-22 17:06:17 8.66MB nlp deep-learning tensorflow question-answering
1
PyTorch问答 该存储库包含一些最重要的问题解答论文的实现。 这些实现以教程的形式进行,并且大致是所述论文的注释。 对于那些了解深度学习和NLP基础知识,想要开始阅读稍微复杂的论文并了解其实现方式的人来说,该存储库可能会有所帮助。 尽管我已尽力以简单的方式分解所有内容,但该存储库还假定您对PyTorch基础有所了解。 问题回答 问答是一项重要的任务,基于此,可以判断NLP系统和AI的智能。 QA系统将给出有关某个主题的简短段落或上下文,并根据文章内容提出一些问题。 这些问题的答案是上下文的跨度,也就是说,它们可以直接在文章中找到。 为了训练这样的模型,我们使用数据集。 入门 名为“ QA的
1
1. Abstract 协同注意力机制在最近几年广泛用于 VQA 领域,以往的协同注意力多是先计算各模态的注意力分布信息,再建立不同模态间的相关性,这样忽略了模态内的相关性。本篇论文在 Self-Attention 机制的基础上,应用 Transformer 设计 MCA 模块,通过级联的方式搭建深层模块化网络 MCAN 2. Model 2.1 MCA Self-Attention (SA) 用于发掘模块内的关系,Guided-Attention (GA) 用于发掘模块间的关联,模块的设计遵循 Transformer 一文中的 scaled dot-product attention 模块
2022-05-09 20:57:13 795KB al ar attention
1
NLP问题解答系统 斯坦福大学SQuAD数据集上的NLP项目 回答信息检索和自然语言处理(NLP)领域的问题,该问题与构建自动化系统有关,该系统以自然语言回答人类提出的问题。 有两种类型的系统; 封闭域质量检查和开放域质量检查。 封闭域质量检查与构建可回答特定领域问题的系统有关。 因此,给定一段文本,我们希望开发能够回答该特定文本问题的系统。 开放域质量保证可以处理几乎所有问题,并且可以依靠一般本体论和世界知识。 这些系统通常具有更多可用于提取答案的数据。 在此任务中,我们关注的是封闭域质量检查。 现代系统中的问题类型: Factoid问题:罗浮宫在哪里? 复杂的问题:学者们对杰斐逊在与海盗打交道方面的立场有何看法? 我们对此任务中的Factoid问题感兴趣。 我创建了一个自动的封闭域质量检查系统,该系统能够为有关所提供文本的人类问题提供正确且难以理解的答案。 应该给最终
2022-03-07 12:47:49 1KB
1
BEFAQ BEFAQ(BERT Embedding Frequently Asked Question) 开源项目是好好住面向多领域FAQ集合的问答系统框架。 我们将Sentence BERT模型应用到FAQ问答系统中。开发者可以使用BEFAQ系统快速构建和定制适用于特定业务场景的FAQ问答系统。 BEFAQ的优点有: (1)使用了Elasticsearch、Faiss、Annoy 作为召回引擎 (2)使用了Sentence BERT 语义向量(Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks) (3)对同义问题有很好的支持 (4)支持多领域语料(保证了召回的数据是对应领域的,即使是同样的问题,也可以得到不同的答案。) (5)提供了根据当前输入提示联想问题(suggest)功能的接口 BEFAQ的框架结构如下图
2022-02-15 20:55:29 119KB dialogue question question-answering faq
1
机器学习的双向注意力流 这是的原始实现。 可找到提交的CodaLab工作表。 对于TensorFlow v1.2兼容版本,请参阅分支。 如有问题和建议,请联系 ( )。 0.要求 一般 Python(已在3.5.2。上验证。Python2已报告问题!) 解压缩,wget(仅用于运行download.sh ) Python包 tensorflow(深度学习库,仅适用于r0.11) nltk(NLP工具,已在3.2.1上验证) tqdm(进度条,已在4.7.4上验证) jinja2(用于虚假化;如果只培训和测试,则不需要) 1.预处理 首先,准备数据。 下载SQuAD数据以及GloVe和nltk语料库(〜850 MB,这会将文件下载到$HOME/data ): chmod +x download.sh; ./download.sh 其次,预处理Stanford QA数据集(以及GloVe向量),并将其保存在$PWD/data/squad (约5分钟): python -m squad.prepro 2.培训 该模型具有〜2.5M参数。 该模型由NVidia Titan
2021-12-07 19:10:35 137KB nlp tensorflow question-answering squad
1