百川大模型微调,lora模型,训练模型,大语言模型,Baichuan-7B模型微调,百川大模型量化 int量化 INT4量化微调模型,Baichuan-7B模型量化 百川模型量化
Baichuan-7B 是由百川智能开发的一个开源可商用的大规模预训练语言模型。基于 Transformer 结构,在大约 1.2 万亿 tokens 上训练的 70 亿参数模型,支持中英双语,上下文窗口长度为 4096。在标准的中文和英文 benchmark(C-Eval/MMLU)上均取得同尺寸最好的效果。
2024-01-20 20:11:26
63.48MB
语言模型
1