思路 文本处理,这里我是以eng_fra的文本为例,每行是english[tab]french,以tab键分割。获取文本,清洗。 分别建立字典,一个english,一个french。 根据字典写好seq2id的函数(文本序列->数字序列),并调用将文本序列化。 初始化Encoder,Decoder模型;选择合适的优化器;设置lr,epochs等参数; 开始循环迭代: 1.因为文本太大,这里是随机选择某句进行训练。 2.句子通过Encoder,Encoder产生新的隐层和每层的输出;再将开始标志通过传给Decoder结合Encoder的隐层和每层的输出(期间用到attention,下面详细讲解)
2021-09-01 16:36:03 714KB att attention io
1
使用 seq2seq 模型和基于注意力机制的 seq2seq 模型(AttSeq2Seq)模型两种方法,实现 MNIST 数据集分类
2021-08-30 19:53:26 11.06MB seq2seq AttSeq2Seq MNIST
1
Seq2Seq技术,全称Sequence to Sequence,它被提出于2014年,最早由两篇文章独立地阐述了它主要思想,分别是Google Brain团队的《Sequence to Sequence Learning with Neural Networks》和Yoshua Bengio团队的《Learning Phrase Representation using RNN Encoder-Decoder for Statistical Machine Translation》。这两篇文章不谋而合地提出了相似的解决思路,Seq2Seq由此产生。 ———————————————— 版权声明:本文为CSDN博主「我把梦想卖了,换成了柴米油盐」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。 原文链接:https://blog.csdn.net/leva345/article/details/119755540
2021-08-27 18:07:09 7.08MB 人工智能 nlp
1
Pytorch-seq2seq-光束搜索 带有注意力和贪婪搜索/波束搜索的Seq2Seq模型,用于在PyTorch中进行神经机器翻译。 此实现着重于以下功能: 用于其他项目的模块化结构 最少的代码以提高可读性 充分利用批处理和GPU。 解码方法贪婪搜索 解码方法波束搜索 此实现依赖于来最大程度地减少数据集管理和预处理部分。 Seq2Seq型号说明 seq2seq的主要结构采用 编码器:双向GRU 解码器:具有注意机制的GRU 注意力 解码方式 贪婪的搜索 光束搜索 要求 CUDA Python 3.6 PyTorch 1.4 火炬文本 空间 麻木 智慧(可选) 通过这样做下载令牌生成器: python -m spacy download de python -m spacy download en 去做 添加日志 更改为支持gpu和cpu,目前是基于gpu的代码实现
2021-08-25 16:09:18 5.75MB pytorch seq2seq beam-search nmt
1
dynamic-seq2seq 欢迎关注我的另一个项目 基于中文语料和dynamic_rnn的seq2seq模型 Update: 修复loss计算bug 修复batch_size大于1时的计算bug Requirements tensorflow-1.4+ python2.7 (暂时未对python3 兼容) requests jieba cPickle numpy 谷歌最近开源了一个seq2seq项目 tensorflow推出了dynamic_rnn替代了原来的bucket,本项目就是基于dynamic_rnn的seq2seq模型。 这里我构建了一些对话预料,中文语料本身就比较稀缺,理论上来说语料越多模型的效果越好,但会遇到很多新的问题,这里就不多作说明。 对话语料分别在data目录下 Q.txt A.txt中,可以替换成你自己的对话语料。 用法: # 新增小黄鸡语料 # 添加 pyt
2021-08-19 13:32:59 10.69MB chatbot seq2seq chatbots Python
1
pytorch聊天机器人 使用PyTorch的Seq2Seq聊天机器人实现功能:Seq2Seq +光束搜索+ antiLM 要求 Python3 火炬0.3 语料库 用法 训练 python train . py 测试 python console python console . py . / ckpt model 光束搜索示例: me: hi . Bot: how can i help you ? score:-0.66 Bot: where are you going to go ? score:-0.66 Bot: i am sorry to hear that . what can i do for you ? score:-0.67 Bot: where are you going ? score:-0.68 Bot: how are you goi
2021-08-19 13:24:26 3.21MB chatbot pytorch seq2seq Python
1
Seq2Seq案例 最基础的Seq2Seq模型包含了三个部分,即Encoder、Decoder以及连接两者的中间状态向量,Encoder通过学习输入,将其编码成一个固定大小的状态向量S,继而将S传给Decoder,Decoder再通过对状态向量S的学习来进行输出。
2021-08-17 18:12:24 21KB nlp
1
深度学习课程(完整代码课件)Seq2Seq网络,包括完整的代码和课件
2021-08-13 09:27:20 375.48MB Seq2Seq网络
1
压缩包包含训练好的模型,提供test.py脚本可直接使用,并提供可视化的输出。采用pytorch实现了简单法语-英语的翻译。模型采用attention-seq2seq,编码器和解码器采用gru实现。支持windows和linux操作系统。
2021-08-04 11:05:12 29.73MB GRU seq2seq pytorch
1
压缩包包含训练好的模型,提供test.py脚本可直接使用,并提供可视化的输出。支持windows和linux操作系统。采用pytorch实现中英翻译,采用GRU实现编解码器。内含处理好的数据集,也提供训练过程绘制,注意力机制可视化。
2021-08-04 11:05:11 67.99MB NLP seq2seq pytorch
1