​ 介绍从RNN到Attention到Transformer系列中Decode-Encode(Seq2Seq) https://blog.csdn.net/qq_39707285/article/details/124726403
2022-05-30 12:05:44 26.16MB rnn transformer 人工智能 深度学习
1
pytorch实现seq2seq和transformer字符级中英机器翻译,里面有一个小型中英的平行语料数据集和训练好的seq2seq的模型,transformer的模型需要自己训练
2022-05-19 18:00:45 34.26MB pytorch transformer 机器翻译 机器学习
1
机器翻译 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 其主要的步骤包括数据预处理、分词、建立词典、载入数据集、Encoder-decoder、seq2seq等。 注意力机制与Seq2seq模型 在“编码器—解码器(seq2seq)”⼀节⾥,解码器在各个时间步依赖相同的背景变量(context vector)来获取输⼊序列信息。当编码器为循环神经⽹络时,背景变量来⾃它最终时间步的隐藏状态。将源序列输入信息以循环单位状态编码,然后将其传递给解码器
2022-05-18 22:02:21 64KB AS c fo
1
tensorflow-chatbot-中文 :person_running: [中文聊天机器人]具有bahdanau注意和Word2Vec预训练嵌入的seq2seq模型的Tensorflow实现 此基于撰写的。 如何 [选项1]重新训练模型 $ git clone https://github.com/AdrianHsu/tensorflow-chatbot-chinese.git # put your own training/eval data in the correct path, as shown above $ ./run.sh [选项2]使用预先训练的保护程序文件测试模型 您应该在下载经过预训练的模型,然后将其放入save/目录。 确保您的输入已经放置在正确的路径中,并且已通过文本分段API(例如jieba)进行了预处理。 $ ./hw2_seq2seq.sh 操作方法(网络) 您必须先下载冻结
2022-05-13 18:27:54 13.64MB nlp deep-learning tensorflow chatbot
1
人工智能-项目实践-深度学习-用深度学习对对联 这是一个使用seq2seq模型播放对联的项目(对对联)。 这个项目是用Tensorflow编写的
2022-05-13 09:08:49 23KB 源码软件 人工智能 seq2seq 对对联
从零开始的Tensorflow-seq2seq- 该存储库包含各种seq到seq模型的示例代码
2022-05-10 17:08:53 211KB JupyterNotebook
1
聊天学习者 在TensorFlow中基于新的序列到序列(NMT)模型实现的聊天机器人,具有无缝集成的某些规则。 对于那些对中文聊天机器人感兴趣的人,请。 ChatLearner(Papaya)的核心是基于NMT模型( )构建的,此处已对其进行了调整以适应聊天机器人的需求。 由于TensorFlow 1.4中tf.data API的更改以及自TensorFlow 1.12以来的许多其他更改,此ChatLearner版本仅支持TF版本1.4至1.11。 如果您需要支持TensorFlow 1.12,可以在tokenizeddata.py文件中进行轻松更新。 在开始其他一切之前,您可能需要
2022-05-08 18:05:57 23.08MB python deep-learning tensorflow chatbot
1
Im2Latex 深层CNN编码器+ LSTM解码器,用于图像到乳胶, 的模型架构的pytorch实现 此实现的示例结果 在IM2LATEX-100K测试数据集上的实验结果 蓝色4 编辑距离 完全符合 40.80 44.23 0.27 入门 安装依赖项: pip install -r requirement.txt 下载数据集进行训练: cd data wget http://lstm.seas.harvard.edu/latex/data/im2latex_validate_filter.lst wget http://lstm.seas.harvard.edu/latex/data/im2latex_train_filter.lst wget http://lstm.seas.harvard.edu/latex/data/im2latex_test_filter.lst
2022-04-11 18:16:01 107KB pytorch seq2seq show-and-tell imagecaptioning
1
聊天机器人 一个可以使用自己的语言料进行训练的中文聊天机器人,目前包含seq2seq tf1.x和tf.2x版本,seqGan版本为tf1.x版本,pytorch版本,欢迎大家实践交流。 关于语料的说明 大家可以使用小黄鸡的预料,地址 seq2seq版本代码执行顺序 1,在下载好代码和语料之后,将语料文件放入数据目录下。 2,准备数据预处理器(data_utls.py)-> execute.py(执行器)-> app.py(可视化对话模块)的顺序执行就可以了。 3,超参配置在seq2seq.ini和seq2seq_sever.ini文件中配置。 seqGAN版本代码执行顺序 1,在下载好代
2022-03-08 08:30:31 28.28MB python ai chatbot pytorch
1
seq2seq_Pointer_Generator_Summarizer 一个用于深度抽象摘要项目的深度学习神经网络:这是一个从中文对话中生成摘要总结的项目。有趣的对话是客户和汽车技术人员之间的对话,其中有80000多个样本用于培训和测试,还有20000样本用于预测。数据基准线在某种程度上对于中文是典型的,清除数据-段-标记化-批处理。但是,处理长时间的对话并向word2vec模型添加特殊令牌是很棘手的。通过重新训练模型将特殊令牌添加到w2v模型。 还提供了原始数据集,细分数据集,w2v模型之类的文件以供立即测试。请注意,嵌入矩阵文件太大,无法上传。 在此项目中,您可以:训练模型,测试模型或评估模型:一切都是经典的并使用tensorflow 2.0构建,单词嵌入由word2vec进行预训练,并且seq2seq包括Gru作为编码器,Bahdanau注意和单向Gru作为解码器。该模型还包含指针
2022-03-04 09:28:16 16.28MB Python
1