完整训练代码,对应文章:【AI大模型应用开发】【Fine-Tuning】0. 从一个例子开始学习大模型Fine-Tuning
2024-06-12 16:03:50 5KB 人工智能 AI FineTune
1
OMRON 以太网模块的使用设置说明和以太网FINS TCP/IP协议说明
2024-04-29 23:49:21 5.27MB FINE
1
高密度脉冲电流作用下细晶粒热影响区的形成和热疲劳性能,林化强,赵宇光,本文研究了高密度脉冲电流作用下热作模具钢试样热影响区的形成机理和规律,通过分析脉冲电流作用后热影响区组织和性能分析,探讨
2024-02-24 21:37:00 1.49MB 首发论文
1
VITS-fast-fine-tuning训练准备的样例数据,可以快速体验该模型的语音合成效果。内容包含预训练模型、配置文件、语音素材等。
2023-10-19 11:34:07 587.21MB 语音合成 vits
1
Sam Newman - Building Microservices. Designing Fine-Grained Systems - 2015
2023-10-18 13:28:14 5.79MB Micro services
1
FINE REPORT 8.0 激活码 适用于2017/3 之前的版本,
2023-07-10 16:33:13 66B FINE REPORT 8.0激活码
1
是一个情感分类的项目,前面是对emotion数据集的处理和分析,以及将整个数据集分词以及处理成模型的输入形式。 主要是通过加载一个文本分类的预训练模型,然后在数据集上面进emotion数据集上面的fine-tuning。然后对训练好的模型进行效果的分析,包括F1,Precision和Recall等。 fine-tune transformers distilbert-base-uncased - distilbert 是对 bert 的 distill 而来 - 模型结构更为简单, - bert-base-uncased 参数量:109482240 - distilbert-base-uncased 参数量:66362880 - trainer默认自动开启 torch 的多gpu模式, - `per_device_train_batch_size`: 这里是设置每个gpu上的样本数量, - 一般来说,多gpu模式希望多个gpu的性能尽量接近,否则最终多gpu的速度由最慢的gpu决定, - 比如快gpu 跑一个batch需要5秒。
2023-07-10 16:26:26 658KB bert Transformer fine-tuning LLM
1
非常实用的numeca教学案例,numeca越来越受欢迎了,相信这篇教程肯定会受到大家的喜欢,尤其对于初学者,希望给大家带来方便
2023-04-07 17:17:09 3.49MB NUMECA 平面叶栅
1
该项目包含一个matlab程序包,用于生成平衡的格点和用于高阶自适应网格细化的粗精细插值矩阵。 附有张青海提交给Comput的论文。 方法应用。 机甲。 gr。
2023-02-10 18:54:13 40KB 开源软件
1
情感分析是研究和分析人们对不同产品,服务或主题的看法,观点,情感等。 电影评论,产品评论,推文等可以用作数据,并且可以分析用户的情绪,无论是正面的,负面的还是中立的。 情感分析可以使用多种技术和不同级别来完成。 根据需要,可以分析整个句子或文档。 组织可以使用情感分析的结果来改善其产品或服务的质量,情感分析可以帮助决策。 本文讨论了几种用于情感分析的技术。
2023-01-14 09:00:24 283KB Polarity fine grained lexicons
1