chatglm使用lora进行模型微调训练

上传者: 43228814 | 上传时间: 2023-06-29 21:32:48 | 文件大小: 13.07MB | 文件类型: ZIP
chatglm使用lora进行模型微调训练,没有采用官方的方案,使用了另一种效果好的方案,对于显存特别友好,24g显存就能训练自己的垂直领域大模型训练了,效果还是非常的好的,适合自己机器不是很多的需要做实验的同学

文件下载

资源详情

[{"title":"( 8 个子文件 13.07MB ) chatglm使用lora进行模型微调训练","children":[{"title":"ChatGLM-lora","children":[{"title":"cover_alpaca2jsonl.py <span style='color:#111;'> 862B </span>","children":null,"spread":false},{"title":"data","children":[{"title":"alpaca_data.json <span style='color:#111;'> 21.72MB </span>","children":null,"spread":false},{"title":"alpaca_data.jsonl <span style='color:#111;'> 20.79MB </span>","children":null,"spread":false}],"spread":true},{"title":"LICENSE <span style='color:#111;'> 1.04KB </span>","children":null,"spread":false},{"title":"finetune.py <span style='color:#111;'> 3.54KB </span>","children":null,"spread":false},{"title":"output","children":[{"title":".keep <span style='color:#111;'> 0B </span>","children":null,"spread":false}],"spread":true},{"title":"requirements.txt <span style='color:#111;'> 250B </span>","children":null,"spread":false},{"title":"tokenize_dataset_rows.py <span style='color:#111;'> 1.84KB </span>","children":null,"spread":false}],"spread":true}],"spread":true}]

评论信息

免责申明

【只为小站】的资源来自网友分享,仅供学习研究,请务必在下载后24小时内给予删除,不得用于其他任何用途,否则后果自负。基于互联网的特殊性,【只为小站】 无法对用户传输的作品、信息、内容的权属或合法性、合规性、真实性、科学性、完整权、有效性等进行实质审查;无论 【只为小站】 经营者是否已进行审查,用户均应自行承担因其传输的作品、信息、内容而可能或已经产生的侵权或权属纠纷等法律责任。
本站所有资源不代表本站的观点或立场,基于网友分享,根据中国法律《信息网络传播权保护条例》第二十二条之规定,若资源存在侵权或相关问题请联系本站客服人员,zhiweidada#qq.com,请把#换成@,本站将给予最大的支持与配合,做到及时反馈和处理。关于更多版权及免责申明参见 版权及免责申明