文本预训练模型实战:(1.预训练模型效果分析 2.文本数据截断处理 3.预训练模型自定义训练)
2023-11-07 21:49:12 51KB Transformer 自然语言处理
1
基于bert的韵律预训练模型,用于中文语音生成,生成自然韵律的声音,听起来效果更加自然流畅
2023-10-08 09:46:00 362.87MB bert 韵律 语音合成
1
BETR预训练模型(num-classes = 8)
2023-09-25 15:36:53 158.97MB 预训练模型 DETR
1
Wav2Lip-HD预训练模型第一个包,包含人脸检测模型,语音驱动面部模型等,用于数字人语音驱动面部及图像超分辨率
2023-08-14 15:22:20 679.52MB wav2lip 人脸检测 数字人
1
猕猴桃种植知识图谱构建。针对猕猴桃种植领域数据多源异构的特点,采用自顶向下的方式构建猕猴桃种植知识图谱,首先设计猕猴桃种植知识图谱的本体概念模式,然后根据模式层的本体规范将抽取的三元组事实加入到数据层知识库中;针对知识图谱构建过程中知识抽取方法复杂、准确率低以及知识补全困难等问题,采用实 体关系联合抽取方法和基于TransR的知识补全方法,并构建了融合字词语义信息的猕猴桃种植实体识别模型,该模型以SoftLexicon为基础,通过MHA和Attention机制分 别调整词权重和词集重要度进一步提高命名实体识别精确率。实验结果表明,本文构 建的猕猴桃种植实体识别模型与SoftLexicon模型相比,F1值提高了1.58%,达到了91.91%,在ResumeNER公开数据集上F1值达到了96.17%;猕猴桃种植三元组抽取F1值为92.86%;基于TransR的知识补全方法Hit@3和Hit@10分别为90.40%和92.60%。
2023-08-13 16:48:01 10.26MB 知识图谱 实体对齐 自然语言处理
1
Word2Vec 模型word2vec-google-news-300。在 Google News 数据集上训练完成的 Word2Vec 模型,覆盖了大约 300 万的词汇和短语。该模型是利用了整个 Google News 大约 1000 亿个词的语料训练而成!由于文件太大,将压缩包分成了10个部分。
2023-05-05 18:18:55 180MB 自然语言处理 预训练模型
1
[SSD-300 VGG-based] | VOC07+12+COCO trainval | VOC07 test | 0.817 | - |原文中指定模型
2023-04-30 11:09:48 93.96MB SSD预训练模型 300*300
1
inception_v3_weights_tf_dim_ordering_tf_kernels_notop Linux下是放在“~/.keras/models/”中 Win下则放在Python的“settings/.keras/models/”中 Windows-weights路径:C:\Users\你的用户名\.keras\models anaconda下依然好用
2023-04-29 13:57:27 77.09MB Keras 预训练 模型 权值文件
1
word2vec预训练模型,gensim做的
2023-04-19 20:41:41 267.66MB word2vec 预训练模型 维基百科
1
Prompt tuning 目前的相关论文合集,总计70篇左右
2023-04-11 16:58:05 81.9MB Prompt 深度学习 tuning 预训练模型
1