通过预训练模型进行AttnGAN推理 运行推断 涉及三个步骤。 创建容器(可选地,选择cpu或gpu dockerfile: docker build -t "attngan" -f dockerfile.cpu . 运行容器: docker run -it --name attngan -p 8888:8888 attngan bash 运行jupyter笔记本。 学分 所有代码均已从借用。 此回购协议只是将评估api简化为一个Jupyter笔记本,而不是托管在Azure上。
1
lstm-text-generation 文本生成(Word2Vec + RNN/LSTM) 目录: input : 输入文件数据 1.char_LSTM.py : 以字母为维度 预测下一个字母是什么 2.word_LSTM.py : 以单词为维度,预测下一个单词是是什么 char_LSTM.py 用RNN做文本生成,我们这里用温斯顿丘吉尔的任务传记作为我们的学习语料。 英文的小说语料可以从古登堡计划网站下载txt平文本:) 这里我们采用keras简单的搭建深度学习模型进行学习。 word_LSTM.py 跟上一个模型一样,只不过使用的word2vec对语料构建词向量,预测下一个单词。
2021-09-30 18:02:54 3.78MB Python
1
seq2seq对联生成的数据集,包含搜狗预训练数据,用于生成对联,相关代码上传github中,地址https://github.com/zhangzhiqiangccm/NLP-project
2021-09-29 08:17:54 25.18MB 自然语言处理 文本生成
1
RCV1-2 是一个路透社(Ruters)英文新闻文本及对应新闻类别数据,可用以进行文本分类和其它自然语言处理(NLP)任务。
1
颜色熵matlab代码文本生成模型LSTM-CNN-HMM 文本的生成模型(a)在这个问题中,我们试图建立一个生成模型,以模仿英国著名数学家,哲学家,多产作家和政治活动家贝特朗·罗素的写作风格。 (b)从Project Gutenberg下载以下书籍。 org / ebooks / author / 355的文本格式:i。 ii。 iii。 iv。 哲学问题分析心灵的神秘主义和逻辑以及其他论文我们对作为哲学科学方法领域的外部世界的了解古腾堡(Gutenberg)在每本书中都添加了标准的页眉和页脚,但这不是原文的一部分。 在文本编辑器中打开文件,然后删除页眉和页脚。 页眉是显而易见的,并以以下文本结尾:***此项目的开始Gutenberg EBOOK询问含义和真相***页脚是以下文本行之后的所有文本:THE END拥有一个更好的模型,强烈建议您从国会图书馆下载以下书籍,并将其转换为文本文件:i。 西方哲学史ii。 物质分析iii。 对意义和真理的探究尝试只使用书中的文字,并在文字前后扔掉不需要的文字,尽管在大型语料库中,这些文字被认为是杂音,不会造成大问题。 1个 (c)LSTM:训练L
2021-08-28 21:16:41 3.31MB 系统开源
1
文本生成领域的深度强化学习研究进展.pdf
2021-08-18 22:06:05 10.72MB 深度学习 数据分析 数据研究 参考文献
electra的预训练模型改进
2021-08-06 13:03:09 131KB 文本生成
1
文本生成就是指期待未来有一天计算机能够像人类一样会表达,能够撰写出 高质量的自然语言文本。
2021-08-06 09:42:33 8.38MB 自然语言处理 文本生成
1
txt_of_picDirs文本生成器 即根据指定的图片文件夹生成图片路径的txt文本 参考博客: 【python应用】 txt_of_picDirs文本生成器 https://blog.csdn.net/jn10010537/article/details/118280528
2021-06-28 12:02:39 7.48MB 图片路径的文本生成器