模型微调自我认知数据集
2025-02-25 22:59:02 20KB 数据集 自我认知 python 模型微调
1
百川大模型微调,lora模型,训练模型,大语言模型,Baichuan-7B模型微调,百川大模型量化 int量化 INT4量化微调模型,Baichuan-7B模型量化 百川模型量化 Baichuan-7B 是由百川智能开发的一个开源可商用的大规模预训练语言模型。基于 Transformer 结构,在大约 1.2 万亿 tokens 上训练的 70 亿参数模型,支持中英双语,上下文窗口长度为 4096。在标准的中文和英文 benchmark(C-Eval/MMLU)上均取得同尺寸最好的效果。
2024-01-20 20:11:26 63.48MB 语言模型
1
chatglm使用lora进行模型微调训练,没有采用官方的方案,使用了另一种效果好的方案,对于显存特别友好,24g显存就能训练自己的垂直领域大模型训练了,效果还是非常的好的,适合自己机器不是很多的需要做实验的同学
2023-06-29 21:32:48 13.07MB 大语言模型 chatglm lora 指令集微调
1
模型微调》文本情感分类文本情感分类文本分类是自然语言处理的一个常见任务,它把一段不定长的文本序列变换为文本的类别。后续内容将从以下几个方面展开:文本情感分类数据
2022-10-29 12:43:45 34KB argmax 分类 分类数据
1
迁移学习从根本上改变了自然语言处理(NLP)的处理范式。许多最先进的模型首先在大型文本语料库上进行预先训练,然后在下游任务上进行微调。
2022-02-12 14:24:26 4.63MB 弱监督 预训练语言模型
1
参考资料:《python深度学习》第五章。keras官方中文文档。 使用数据集:数据集来自kaggle  https://www.kaggle.com/tongpython/cat-and-dog。 VGG16模型下载自GitHub:https://github.com/fchollet/deep-learning-models/releases。里面包括各种模型,如果你的keras模型导入过慢,你可以将模型下载下来再进行导入。 序言 当我们的数据集较小,只有几百几千张图片的时候,我们很难在一个新的网络结构上训练出具有很高准确率的模型,为此我们需要借助预训练网络模型(即已经训练好的网络模型,如
2021-11-23 16:42:43 63KB AS keras ras
1