百川大模型微调,lora模型,训练微调自己的大预言模型

上传者: m0_37556124 | 上传时间: 2024-01-20 20:11:26 | 文件大小: 63.48MB | 文件类型: ZIP
百川大模型微调,lora模型,训练模型,大语言模型,Baichuan-7B模型微调,百川大模型量化 int量化 INT4量化微调模型,Baichuan-7B模型量化 百川模型量化 Baichuan-7B 是由百川智能开发的一个开源可商用的大规模预训练语言模型。基于 Transformer 结构,在大约 1.2 万亿 tokens 上训练的 70 亿参数模型,支持中英双语,上下文窗口长度为 4096。在标准的中文和英文 benchmark(C-Eval/MMLU)上均取得同尺寸最好的效果。

文件下载

资源详情

[{"title":"( 7 个子文件 63.48MB ) 百川大模型微调,lora模型,训练微调自己的大预言模型","children":[{"title":"baichuan_lora-master","children":[{"title":"image.png <span style='color:#111;'> 93.17KB </span>","children":null,"spread":false},{"title":"adapter_config.json <span style='color:#111;'> 523B </span>","children":null,"spread":false},{"title":"infer.py <span style='color:#111;'> 1.83KB </span>","children":null,"spread":false},{"title":"adapter_model.bin <span style='color:#111;'> 68.36MB </span>","children":null,"spread":false},{"title":"requirements.txt <span style='color:#111;'> 99B </span>","children":null,"spread":false},{"title":"README.md <span style='color:#111;'> 1.79KB </span>","children":null,"spread":false},{"title":"sft_lora.py <span style='color:#111;'> 7.44KB </span>","children":null,"spread":false}],"spread":true}],"spread":true}]

评论信息

免责申明

【只为小站】的资源来自网友分享,仅供学习研究,请务必在下载后24小时内给予删除,不得用于其他任何用途,否则后果自负。基于互联网的特殊性,【只为小站】 无法对用户传输的作品、信息、内容的权属或合法性、合规性、真实性、科学性、完整权、有效性等进行实质审查;无论 【只为小站】 经营者是否已进行审查,用户均应自行承担因其传输的作品、信息、内容而可能或已经产生的侵权或权属纠纷等法律责任。
本站所有资源不代表本站的观点或立场,基于网友分享,根据中国法律《信息网络传播权保护条例》第二十二条之规定,若资源存在侵权或相关问题请联系本站客服人员,zhiweidada#qq.com,请把#换成@,本站将给予最大的支持与配合,做到及时反馈和处理。关于更多版权及免责申明参见 版权及免责申明