这是一个简单的应用LSTM在Pytorch文本分类任务上,使用贝叶斯优化超参数调优。 【配置】 可以在src/constants.py文件中设置各种超参数。 每个变量的说明如下。 注意,对于贝叶斯优化,要调优的超参数应该以元组的形式传递。 你可以将参数设置为一个元组或一个特定的值。 前者意味着该论证将被纳入贝叶斯优化的主题,而后者意味着它不应被纳入。 【操作运行】 参考代码中的项目说明文件,按照说明一步步操作
文本摘要 CNN/DailyMail 原始数据集。 压缩包内含 cnn_stories.tgz 和 dailymail_stories.tgz 。 可用于抽取式摘要(Extractive Summarization)任务以及生成式摘要(Abstractive Summarization)旨在方便国内的研究者们获取该数据集。 技术细节可参考博文:https://blog.csdn.net/muyao987/article/details/104949367
2022-11-30 11:24:27 509.71MB 人工智能 深度学习 机器学习 文本摘要
1
CDial GPT 本项目提供了一个大规模中文对话数据集,并提供了在此数据集上的中文对话预训练模型(中文GPT模型),更多信息可参考我们的。 本项目代码修改自 ,使用了HuggingFace Pytorch版的库,可用于预训练与微调。 目录 消息 2021-02-28:一个,欢迎大家提bug和加速优化算法,以及新的清洗功能等等。 2021-01-09:实验室出版新书 ,欢迎大家阅读购买。 2020-11-20:预训练模型新工作 。本工作将词级的语言学知识(包括词性和词的情感极性)。表示模型SentiLARE,欢迎大家使用。 2020-10-18:我们的论文《大规模中文短文本对话数据集》获得了NLPCC2020最佳学生论文奖。 :party_popper: :party_popper: :party_popper: 2020-09-08:感谢所提供的。 2020-09-02:可用加载,感谢苏剑林提供代码。 我们所提供的数据集LCCC(大规模汉语清洁会话
2022-11-30 10:21:23 715KB dialogue text-generation pytorch gpt
1
使用seq2seq模型与attention注意力机制生成对联,数据集中有预处理代码,其对应的工程代码github地址:https://github.com/zhangzhiqiangccm/NLP-project
2022-11-30 09:51:36 21.11MB 自然语言处理 文本生成 对联生成
1
第一章大作文趋势:wave英语一漫画作文(cartoon学术型硕士)标准字数在200—230字英语二图表作文(chart专业型硕士)标准字数160180字•写作
2022-11-30 09:48:43 4.91MB 自然语言处理
1
COCO LM预训练(WIP) 在Pytorch中实现 ,纠正和对比文本序列以进行语言模型预训练。 他们能够以自我监督的方式进行对比学习,以进行语言模型预训练。 似乎是Electra的坚实后继者。 安装 $ pip install coco-lm-pytorch 用法 使用x-transformers库的示例 $ pip install x-transformers 然后 import torch from torch import nn from x_transformers import TransformerWrapper , Encoder from coco_lm_pytorch import COCO # (1) instantiate the generator and discriminator, making sure that the generator is ro
1
给出了VC/MFC文本输出 屏幕绘图实例 位图操作 绘图句柄操作 等编程设计的28个实例,对学习绘图和文字输出方面的同学来说非常简单易懂,(本资源的实例均为本人从光盘中拷出来的,能够正常运行)
1
将文本输入该文本框内,系统将读出文本框内容,Rate调节语速,Volume调节音量。
2022-11-29 17:04:07 27KB LabVIEW 文本朗读
1
样式 aa,AA。a到A bb,BB。b到B 原文 aaa bbb 替换后 AAa BBb 用于大批量替换文本内容 只支持ANSI格式 选取替换后首位置显示|a到A
2022-11-29 15:04:17 85KB 工具 文档 易语言
1
基础知识,供小白参考
2022-11-29 13:02:48 6KB linux
1