Yolov10预训练模型
2024-06-27 18:48:46 241.73MB
1
文字分类 文本分类(文本分类)是自然语言处理中的一个重要应用技术,根据文档的内容或主题,自动识别文档所属的预先定义的类别标签。文本分类是很多应用场景的基础,某些垃圾邮件识别,舆情分析,情感识别,新闻自动分类,智能客服机器人的合并分类等等。此处分为两个部分: 第1部分:基于scikit学习机器学习的Python库,对比几个传统机器学习方法的文本分类 第2部分:基于预训练词向量模型,使用Keras工具进行文本分类,用到了CNN 本文语料:,密码:P9M4。更多新闻标注语料,。 预训练词向量模型来自,下载地址: 。 第1部分:基于scikit-learn机器学习的文本分类方法 基于scikit-
2024-06-24 14:49:13 208KB python nlp machine-learning deep-learning
1
ERNIE 3.0中文预训练模型进行MSRA序列标注 文章链接:https://blog.csdn.net/sinat_39620217/article/details/125071909?csdn_share_tail=%7B%22type%22%3A%22blog%22%2C%22rType%22%3A%22article%22%2C%22rId%22%3A%22125071909%22%2C%22source%22%3A%22sinat_39620217%22%7D&ctrtid=UfDbk
2024-06-06 14:22:35 2KB 文档资料
1
[ML] Pytorch自学实战项目其4:基于学习(RNN)算法的车辆状态估计:训练模型,推理代码,数据源
2024-05-19 16:38:25 8.27MB pytorch pytorch
1
本课件是对论文 BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding 的导读与NLP领域经典预训练模型 Bert 的详解,通过介绍NLP领域对通用语言模型的需求,引入 Bert 模型,并对其架构进行宏观微观的解读,然后详细介绍 Bert 每预训练阶段采用的两个任务,以及常见的微调下游任务场景。最后通过可视化的方式,给出 Bert 在向量表征上的优势所在。
2024-05-01 14:14:23 3.03MB 自然语言处理 bert transformer 预训练模型
1
CVPR2019: Occupancy Networks: Learning 3D Reconstruction in Function Space onet_img2mesh_3-f786b04a.pt
2024-04-30 20:56:10 153.66MB occupancy networks
1
该文件是训练CR-GAN项目所需的预训练模型,该模型如果不下载则不能跑项目!
2024-04-13 20:48:53 55.08MB pytorch 预训练模型
1
生成对抗网络,已训练模型,用于迁移学习
2024-04-10 15:46:55 884.37MB 生成对抗网络 迁移学习
1
Wav2lip预训练模型,包含人脸检测模型、wav2lip生成模型、wav2lip_gan生成模型、wav2lip判别模型等,使用此模型通过音频驱动视频,生成最终的嘴型与语音的匹配
2024-04-08 13:17:50 973.73MB 视频生成
1
1、修改模型路径(下载到你电脑上的路径) 2、文件 data 路径下,支持 Excel(需要预测的列名为 “sent”)。 3、运行 sentiment.py,生成结果在 result 文件夹。
2024-03-11 22:16:33 16KB 自然语言处理 文本情感分析
1