bert-summarization

上传者: 42150745 | 上传时间: 2022-08-06 17:52:07 | 文件大小: 26KB | 文件类型: ZIP
“基于预训练的自然语言生成以进行文本汇总”的实现 论文: : 版本号 python 2.7 PyTorch:1.0.1.post2 准备包/数据集 运行: pip install -r requirements.txt以安装所需的软件包 从以下位置下载块CNN / DailyMail数据: : 运行: python news_data_reader.py创建将在我的数据加载器中使用的泡菜文件 运行模型 对我来说,该模型对我的GPU来说太大了,因此我使用了以下较小的参数进行调试。 CUDA_VISIBLE_DEVICES=3 python main.py --cuda --batch_size=2 --hop 4 --hidden_dim 100 审阅者须知: 尽管我实现了核心部分(使用BERT进行两步汇总生成),但是我没有足够的时间来实现RL部分。 第二个解码器过程非常耗时

文件下载

资源详情

[{"title":"( 12 个子文件 26KB ) bert-summarization","children":[{"title":"bert-summarization-master","children":[{"title":".gitignore <span style='color:#111;'> 1.68KB </span>","children":null,"spread":false},{"title":"requirements.txt <span style='color:#111;'> 843B </span>","children":null,"spread":false},{"title":"model","children":[{"title":"__init__.py <span style='color:#111;'> 0B </span>","children":null,"spread":false},{"title":"common_layer.py <span style='color:#111;'> 23.71KB </span>","children":null,"spread":false},{"title":"transformer.py <span style='color:#111;'> 14.79KB </span>","children":null,"spread":false}],"spread":true},{"title":"utils","children":[{"title":"beam_omt.py <span style='color:#111;'> 11.70KB </span>","children":null,"spread":false},{"title":"__init__.py <span style='color:#111;'> 0B </span>","children":null,"spread":false},{"title":"beam_ptr.py <span style='color:#111;'> 9.06KB </span>","children":null,"spread":false},{"title":"config.py <span style='color:#111;'> 3.74KB </span>","children":null,"spread":false},{"title":"data.py <span style='color:#111;'> 15.88KB </span>","children":null,"spread":false}],"spread":true},{"title":"README.md <span style='color:#111;'> 977B </span>","children":null,"spread":false},{"title":"main.py <span style='color:#111;'> 1.90KB </span>","children":null,"spread":false}],"spread":true}],"spread":true}]

评论信息

免责申明

【只为小站】的资源来自网友分享,仅供学习研究,请务必在下载后24小时内给予删除,不得用于其他任何用途,否则后果自负。基于互联网的特殊性,【只为小站】 无法对用户传输的作品、信息、内容的权属或合法性、合规性、真实性、科学性、完整权、有效性等进行实质审查;无论 【只为小站】 经营者是否已进行审查,用户均应自行承担因其传输的作品、信息、内容而可能或已经产生的侵权或权属纠纷等法律责任。
本站所有资源不代表本站的观点或立场,基于网友分享,根据中国法律《信息网络传播权保护条例》第二十二条之规定,若资源存在侵权或相关问题请联系本站客服人员,zhiweidada#qq.com,请把#换成@,本站将给予最大的支持与配合,做到及时反馈和处理。关于更多版权及免责申明参见 版权及免责申明