Wav2Lip-HD预训练模型第一个包,包含人脸检测模型,语音驱动面部模型等,用于数字人语音驱动面部及图像超分辨率
2023-08-14 15:22:20 679.52MB wav2lip 人脸检测 数字人
1
猕猴桃种植知识图谱构建。针对猕猴桃种植领域数据多源异构的特点,采用自顶向下的方式构建猕猴桃种植知识图谱,首先设计猕猴桃种植知识图谱的本体概念模式,然后根据模式层的本体规范将抽取的三元组事实加入到数据层知识库中;针对知识图谱构建过程中知识抽取方法复杂、准确率低以及知识补全困难等问题,采用实 体关系联合抽取方法和基于TransR的知识补全方法,并构建了融合字词语义信息的猕猴桃种植实体识别模型,该模型以SoftLexicon为基础,通过MHA和Attention机制分 别调整词权重和词集重要度进一步提高命名实体识别精确率。实验结果表明,本文构 建的猕猴桃种植实体识别模型与SoftLexicon模型相比,F1值提高了1.58%,达到了91.91%,在ResumeNER公开数据集上F1值达到了96.17%;猕猴桃种植三元组抽取F1值为92.86%;基于TransR的知识补全方法Hit@3和Hit@10分别为90.40%和92.60%。
2023-08-13 16:48:01 10.26MB 知识图谱 实体对齐 自然语言处理
1
Word2Vec 模型word2vec-google-news-300。在 Google News 数据集上训练完成的 Word2Vec 模型,覆盖了大约 300 万的词汇和短语。该模型是利用了整个 Google News 大约 1000 亿个词的语料训练而成!由于文件太大,将压缩包分成了10个部分。
2023-05-05 18:18:55 180MB 自然语言处理 预训练模型
1
[SSD-300 VGG-based] | VOC07+12+COCO trainval | VOC07 test | 0.817 | - |原文中指定模型
2023-04-30 11:09:48 93.96MB SSD预训练模型 300*300
1
inception_v3_weights_tf_dim_ordering_tf_kernels_notop Linux下是放在“~/.keras/models/”中 Win下则放在Python的“settings/.keras/models/”中 Windows-weights路径:C:\Users\你的用户名\.keras\models anaconda下依然好用
2023-04-29 13:57:27 77.09MB Keras 预训练 模型 权值文件
1
word2vec预训练模型,gensim做的
2023-04-19 20:41:41 267.66MB word2vec 预训练模型 维基百科
1
Prompt tuning 目前的相关论文合集,总计70篇左右
2023-04-11 16:58:05 81.9MB Prompt 深度学习 tuning 预训练模型
1
幽默是一种特殊的语言表达方式,在日常生活中扮演着化解尴尬、活跃气氛、促进交流的重要角色。而幽默计算是近年来自然语言处理领域的新兴热点之一,其主要研究如何基于计算机技术对幽默进行识别、分类与生成,具有重要的理论和应用价值。 本资源是基于基于bert的幽默识别模型,请结合我的博客使用!
2023-04-07 17:51:13 362.39MB nlp bert 预训练模型 python
1
VGG16cfg和预训练权重
2023-04-02 17:14:20 489.89MB VGG16预训练模型
1
yolov5_4.0-pytorch预训练模型yolov5l.pt、yolov5m.pt、yolov5s.pt、yolov5x.pt
2023-03-31 23:59:08 289.86MB YOLOV5_4.0 pytorch yolov5s.pt
1