Match-LSTM和答案指针(Wang和Jiang,ICLR 2016) 此仓库尝试在同一张纸上重现2016年论文中的match-lstm和answer指针实验。 许多预处理锅炉代码来自Stanford CS224D。 代码的内容在qa_model.py中。 为了使代码正确,我不得不修改tensorflow的原始注意力机制实现。 给定一组段落,运行train.py训练模型,并运行qa_answer.py生成答案。 请通过与我联系以获取更多信息。 该代码还充当示例代码,展示了如何将tensorflow的注意力机制连接在一起。 截至2017年8月13日,此类示例在任何地方都不可用。 预处理
2022-06-22 17:06:17 8.66MB nlp deep-learning tensorflow question-answering
1
tensorflow-chatbot-中文 :person_running: [中文聊天机器人]具有bahdanau注意和Word2Vec预训练嵌入的seq2seq模型的Tensorflow实现 此基于撰写的。 如何 [选项1]重新训练模型 $ git clone https://github.com/AdrianHsu/tensorflow-chatbot-chinese.git # put your own training/eval data in the correct path, as shown above $ ./run.sh [选项2]使用预先训练的保护程序文件测试模型 您应该在下载经过预训练的模型,然后将其放入save/目录。 确保您的输入已经放置在正确的路径中,并且已通过文本分段API(例如jieba)进行了预处理。 $ ./hw2_seq2seq.sh 操作方法(网络) 您必须先下载冻结
2022-05-13 18:27:54 13.64MB nlp deep-learning tensorflow chatbot
1
文本分类模型 在Pytorch中实现最新的文本分类模型 实施模型 fastText:fastText模型, TextCNN:提出的用于文本分类的CNN TextRNN:用于文本分类的双向LSTM网络 RCNN:在提出的的RCNN模型的实现 CharCNN: 提出的字符级CNN的实现 带有注意力的Seq2seq :,从注意实现seq2seq模型 变压器:提出的变压器模型的实现 要求 Python-3.5.0 熊猫0.23.4 Numpy-1.15.2 Spacy-2.0.13 Pytorch-0.4.1.post2 火炬文字-0.3.1 用法 将数据下载到“ data /”目录中或使
2022-03-28 10:27:15 12.48MB nlp deep-learning pytorch recurrent-neural-networks
1
介绍 再现EMNLP '14论文 作者 /
2022-02-24 12:26:50 55.74MB nlp deep-learning text-classification cnn
1
为了什么 了解文本匹配区域中的方法,包括基于关键字的匹配模型和潜在语义匹配模型。 实施经典方法。 分类目录 传统模型(基于特征的模型) 基于关键字的方法 tf-idf模型 词共同费率模型 通过添加语法信息找到最重要的单词 提升模型 线性模型 分解机 语义深度模型 基于表示的模型DSSM,CDSSM 基于交互的模型 这些地区的人 调查 有关语义方法的方法和论文 CIKM 2013词袋模型,基于语义表达的结构,单词哈希+ DNN 2014年WWW,单词哈希+ CNN + DNN CIKM 2014基于匹配的结构,单词哈希+ CNN,CLSM和C-DSSM有什么区别呢 2014年EMNL
1
NL2SQL-BERT 内容增强的基于BERT的文本到SQL生成 将数据库设计规则整合到text-to-sql生成中: 我们使用表格单元格和问题字符串的匹配信息来构造一个向量,该向量的长度与问题长度相同。 该问题向量主要提高了WHERE-VALUE推理结果的性能。 因为它注入了将答案单元格及其对应的表头绑定在一起的知识。 如果找到答案单元格,那么我们将找到包含答案单元格的答案列。 我们使用所有表头和问题字符串的匹配信息来构造一个向量,该向量的长度与表头的长度相同。 该头向量主要提高了WHERE-COLUMN推理结果的性能。 要求 python 3.6 记录0.5.3 火炬1.1.0
2021-12-19 14:34:21 4.97MB nlp deep-learning knowledge pytorch
1
卷积神经网络(CNN)的文本分类 这是一个使用CNN对文本文档/句子进行分类的项目。 您可以在和的博客条目中找到类似方法的精彩介绍。 我的方法与Denny和Yoon Kim的原始论文[1]相似。 您也可以在找到Yoon Kim的实现。 ***更新***-2019年12月15日:版本0.2.0的更改 我已将代码更新为TensorFlow2。此外,我在jupyter笔记本中进行了一些更改: 删除Yelp数据集 为IMDB添加TensorFlow数据集 ***更新***-2019年5月17日:0.1.0版中的更改 模型: 将字级与基于字符的输入相结合。 char输入ist是可选的,可以用于进一步
2021-12-10 12:48:35 209KB nlp deep-learning text-classification tensorflow
1
大鸟:变形金刚更长的序列 这不是Google的官方产品。 什么是BigBird? BigBird是一种基于稀疏注意的转换器,它将基于Transformer的模型(例如BERT)扩展到更长的序列。 此外,BigBird还具有对稀疏模型可以处理的完整变压器的功能的理论理解。 由于能够处理更长的上下文,BigBird极大地提高了各种NLP任务(例如问题回答和摘要)的性能。 更多详细信息和比较可以在我们的找到。 引文 如果您觉得这很有用,请引用我们的: @article{zaheer2020bigbird, title={Big bird: Transformers for longer
2021-12-10 11:04:07 1.24MB nlp deep-learning transformer bert
1
多类别文字分类 在Tensorflow中实现四个神经网络,以解决多类文本分类问题。 楷模 LSTM分类器。 参见rnn_classifier.py 双向LSTM分类器。 参见rnn_classifier.py CNN分类器。 参见cnn_classifier.py。 参考: 。 C-LSTM分类器。 请参阅clstm_classifier.py。 参考:。 资料格式 训练数据应存储在csv文件中。 文件的第一行应为[“ label”,“ content”]或[“ content”,“ label”]。 要求 Python 3.5或3.6 Tensorflow> = 1.4.0 脾气暴躁的 火车 运行train.py训练模型。 参数: python train.py --help optional arguments: -h, --help show
2021-12-05 15:41:29 7.46MB nlp deep-learning text-classification cnn-lstm
1
文字cnn 该代码实现了模型的。 图1:用于句子分类的CNN架构图 要求 Python 3.6 TensorFlow 1.4 (Singleton Config) tqdm 要求 项目结构 通过初始化项目 . ├── config # Config files (.yml, .json) using with hb-config ├── data # dataset path ├── notebooks # Prototyping with numpy or tf.interact
2021-11-27 14:47:41 2.44MB nlp deep-learning sentiment-analysis tensorflow
1