本课件是对论文 BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding 的导读与NLP领域经典预训练模型 Bert 的详解,通过介绍NLP领域对通用语言模型的需求,引入 Bert 模型,并对其架构进行宏观微观的解读,然后详细介绍 Bert 每预训练阶段采用的两个任务,以及常见的微调下游任务场景。最后通过可视化的方式,给出 Bert 在向量表征上的优势所在。
2024-05-01 14:14:23 3.03MB 自然语言处理 bert transformer 预训练模型
1
该文件是训练CR-GAN项目所需的预训练模型,该模型如果不下载则不能跑项目!
2024-04-13 20:48:53 55.08MB pytorch 预训练模型
1
Wav2lip预训练模型,包含人脸检测模型、wav2lip生成模型、wav2lip_gan生成模型、wav2lip判别模型等,使用此模型通过音频驱动视频,生成最终的嘴型与语音的匹配
2024-04-08 13:17:50 973.73MB 视频生成
1
glove.6B.100d.zip 是一个常见的数据集,其中包含预训练的GloVe词向量模型。该数据集提供了包含100维向量的大型单词向量集合,这些向量是在大规模文本语料库上使用GloVe算法训练得到的。
2024-04-07 23:24:06 128.08MB 数据集
1
1、修改模型路径(下载到你电脑上的路径) 2、文件 data 路径下,支持 Excel(需要预测的列名为 “sent”)。 3、运行 sentiment.py,生成结果在 result 文件夹。
2024-03-11 22:16:33 16KB 自然语言处理 文本情感分析
1
yolov8n-seg.pt,yolov8s-seg.pt,yolov8m-seg.pt,yolov8l-seg.pt,yolov8x-seg.pt分割预训练权重文件
2024-02-17 19:52:20 284.3MB 图像分割 深度学习 人工智能
1
dinov2代码与预训练模型
2024-01-12 19:28:34 394.61MB
1
包括yolov5l.pt,yolov5m.pt,yolov5s.pt,yolov5x.pt预训练权重文件
2023-12-29 16:28:20 294.34MB yolov5 预训练权重文件
1
swin transformer 预训练模型swin_large_patch4_window12_384_22kto1k.pth
2023-12-27 16:40:16 763.6MB transformer 人工智能 预训练模型
1
EDSR 预训练模型
2023-12-22 17:21:32 516.83MB EDSR
1