基于深度学习的聊天机器人源代码模型,主要是基于seq2seq模型
2022-11-04 22:45:34 7KB 聊天机器人
1
基于Seq2Seq模型的自定义古诗生成
2022-06-16 21:20:34 823KB 研究论文
1
机器翻译 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 其主要的步骤包括数据预处理、分词、建立词典、载入数据集、Encoder-decoder、seq2seq等。 注意力机制与Seq2seq模型 在“编码器—解码器(seq2seq)”⼀节⾥,解码器在各个时间步依赖相同的背景变量(context vector)来获取输⼊序列信息。当编码器为循环神经⽹络时,背景变量来⾃它最终时间步的隐藏状态。将源序列输入信息以循环单位状态编码,然后将其传递给解码器
2022-05-18 22:02:21 64KB AS c fo
1
聊天学习者 在TensorFlow中基于新的序列到序列(NMT)模型实现的聊天机器人,具有无缝集成的某些规则。 对于那些对中文聊天机器人感兴趣的人,请。 ChatLearner(Papaya)的核心是基于NMT模型( )构建的,此处已对其进行了调整以适应聊天机器人的需求。 由于TensorFlow 1.4中tf.data API的更改以及自TensorFlow 1.12以来的许多其他更改,此ChatLearner版本仅支持TF版本1.4至1.11。 如果您需要支持TensorFlow 1.12,可以在tokenizeddata.py文件中进行轻松更新。 在开始其他一切之前,您可能需要
2022-05-08 18:05:57 23.08MB python deep-learning tensorflow chatbot
1
从单文档中生成简短精炼的摘要文本可有效缓解信息爆炸给人们带来的阅读压力。近年来,序列到序列(sequence-to-sequence,Seq2Seq)模型在各文本生成任务中广泛应用,其中结合注意力机制的Seq2Seq模型已成为生成式文本摘要的基本框架。为生成能体现摘要的特定写作风格特征的摘要,在基于注意力和覆盖率机制的Seq2Seq模型基础上,在解码阶段利用变分自编码器(variational auto-encoder,VAE)刻画摘要风格特征并用于指导摘要文本生成;最后,利用指针生成网络来缓解模型中可能出现的未登录词问题。基于新浪微博LCSTS数据集的实验结果表明,该方法能有效刻画摘要风格特征、缓解未登录词及重复生成问题,使得生成的摘要准确性高于基准模型。
2021-12-12 10:35:17 1.16MB 文本摘要 变分自编码器 Seq2Seq模型
1
使用代码更改检测简单的愚蠢错误(SStuB),并使用seq2seq模型进行修复 一些代码可与,该是对一个线性Java错误的简单修复的集合。 资料库描述 utils : 该软件包包含一些实用程序模块,用于修复和准备数据。 data_reader.py :加载json数据集并将SStuB属性放入Bug类。 它定义了一些有用的功能,例如生成要在其他模块中使用的GitHub URL。 关于数据集和其他资产的路径,还有一些配置变量: DATASET_ROOT = '../data' SRC_FILES = DATASET_ROOT / 'src_files' sstubs = DATASET_ROOT / 'sstubs.json' bugs = DATASET_ROOT / 'bugs.json' sstubs_large = DATASET_ROOT / 'sstubsLarge.json
2021-12-07 11:46:21 16.97MB program-repair bug-detection Python
1
PyTorch中seq2seq模型的一个框架
2021-09-14 16:31:43 1.56MB Python开发-机器学习
1
港口进出口货物吞吐量是反映港口业务状况的重要指标,其准确预测将给港口经营管理人员进行决策提供重要的依据.利用机器翻译领域的Seq2Seq模型,对影响港口进出货物量的多种因素进行建模.Seq2Seq模型可以反映进出口货物量在时间维度上的变化规律,并且可以刻画天气、节假日等外部因素的影响,从而进行精准预测.Seq2Seq模型包含两个由循环神经网络(LSTM)组成的编码器和解码器,能够捕捉长短期时间范围内集装箱变化趋势,可以根据历史进出口货物量预测未来一段时间的货物量信息.在真实的天津港进出口集装箱数据集上进行了实验,结果表明Seq2Seq模型的深度学习预测方法效果优于传统的时间序列模型以及其他现有的机器学习预测模型.
1
使用 seq2seq 模型和基于注意力机制的 seq2seq 模型(AttSeq2Seq)模型两种方法,实现 MNIST 数据集分类
2021-08-30 19:53:26 11.06MB seq2seq AttSeq2Seq MNIST
1
Pytorch-seq2seq-光束搜索 带有注意力和贪婪搜索/波束搜索的Seq2Seq模型,用于在PyTorch中进行神经机器翻译。 此实现着重于以下功能: 用于其他项目的模块化结构 最少的代码以提高可读性 充分利用批处理和GPU。 解码方法贪婪搜索 解码方法波束搜索 此实现依赖于来最大程度地减少数据集管理和预处理部分。 Seq2Seq型号说明 seq2seq的主要结构采用 编码器:双向GRU 解码器:具有注意机制的GRU 注意力 解码方式 贪婪的搜索 光束搜索 要求 CUDA Python 3.6 PyTorch 1.4 火炬文本 空间 麻木 智慧(可选) 通过这样做下载令牌生成器: python -m spacy download de python -m spacy download en 去做 添加日志 更改为支持gpu和cpu,目前是基于gpu的代码实现
2021-08-25 16:09:18 5.75MB pytorch seq2seq beam-search nmt
1