BETR预训练模型(num-classes = 8)
2023-09-25 15:36:53 158.97MB 预训练模型 DETR
1
yolov5头部训练模型
2023-08-25 12:49:36 12.53MB 深度学习 python 后端 Yolov5
1
Wav2Lip-HD预训练模型第一个包,包含人脸检测模型,语音驱动面部模型等,用于数字人语音驱动面部及图像超分辨率
2023-08-14 15:22:20 679.52MB wav2lip 人脸检测 数字人
1
猕猴桃种植知识图谱构建。针对猕猴桃种植领域数据多源异构的特点,采用自顶向下的方式构建猕猴桃种植知识图谱,首先设计猕猴桃种植知识图谱的本体概念模式,然后根据模式层的本体规范将抽取的三元组事实加入到数据层知识库中;针对知识图谱构建过程中知识抽取方法复杂、准确率低以及知识补全困难等问题,采用实 体关系联合抽取方法和基于TransR的知识补全方法,并构建了融合字词语义信息的猕猴桃种植实体识别模型,该模型以SoftLexicon为基础,通过MHA和Attention机制分 别调整词权重和词集重要度进一步提高命名实体识别精确率。实验结果表明,本文构 建的猕猴桃种植实体识别模型与SoftLexicon模型相比,F1值提高了1.58%,达到了91.91%,在ResumeNER公开数据集上F1值达到了96.17%;猕猴桃种植三元组抽取F1值为92.86%;基于TransR的知识补全方法Hit@3和Hit@10分别为90.40%和92.60%。
2023-08-13 16:48:01 10.26MB 知识图谱 实体对齐 自然语言处理
1
pytorch中的训练模型示例 PyTorch中的深度学习算法的一些实现。 排名-学习排名 排名网 前馈NN,最小化文档对交叉熵损失函数 训练模型 python ranking/RankNet.py --lr 0.001 --debug --standardize --debug打印参数规范和参数grad规范。 这可以评估是否存在梯度消失和梯度爆炸问题- --standardize可确保将输入缩放为平均值为0且标准差为1.0 NN结构:136-> 64-> 16-> 1,ReLU6作为激活函数 优化器 r 时代 损失(火车) 损失(评估) ndcg @ 10 ndcg @ 30 秒/纪元 因式分解 对/秒 亚当 0.001 25 0.63002 0.635508 0.41785 0.49337 312 损失函数 203739 亚当 0.001 50 0.6
2023-05-22 21:19:36 154KB learning-to-rank ndcg ranknet lambdarank
1
Word2Vec 模型word2vec-google-news-300。在 Google News 数据集上训练完成的 Word2Vec 模型,覆盖了大约 300 万的词汇和短语。该模型是利用了整个 Google News 大约 1000 亿个词的语料训练而成!由于文件太大,将压缩包分成了10个部分。
2023-05-05 18:18:55 180MB 自然语言处理 预训练模型
1
[SSD-300 VGG-based] | VOC07+12+COCO trainval | VOC07 test | 0.817 | - |原文中指定模型
2023-04-30 11:09:48 93.96MB SSD预训练模型 300*300
1
inception_v3_weights_tf_dim_ordering_tf_kernels_notop Linux下是放在“~/.keras/models/”中 Win下则放在Python的“settings/.keras/models/”中 Windows-weights路径:C:\Users\你的用户名\.keras\models anaconda下依然好用
2023-04-29 13:57:27 77.09MB Keras 预训练 模型 权值文件
1
word2vec预训练模型,gensim做的
2023-04-19 20:41:41 267.66MB word2vec 预训练模型 维基百科
1
具有递归神经网络的文本生成 使用基于特征的RNN进行文本生成。 我们使用安德烈·卡帕蒂(Andrej Karpathy)的莎士比亚作品集。 给定来自此数据的字符序列(“莎士比亚”),训练模型以预测序列中的下一个字符。 通过重复调用模型,可以生成更长的文本序列。 模型的输出 以下是本教程中的模型训练了30个纪元并以字符串“ Q”开头时的示例输出: 奎妮:我以为你有罗马人。 Oracle这样,使所有人都反对这个词,因为他的照顾太弱了。 您的孩子们在您的圣洁的爱中,通过流血的宝座沉淀。 伊丽莎白·比什普(Bishop of Ely):我的主,嫁给并愿意哭泣,这是最漂亮的。 然而,现在我被世界可悲的一天收为继承人,要和他父亲一起面对面观看新路吗? 埃斯卡洛斯:为什么我们都下了更多儿子的原因。 卷:不,不,不,不,不,不,不,不,不,不,不,不,不,不,不,不,不,不,不,不,不,不,这是没
2023-04-17 22:59:21 70KB Python
1