预训练好的inception model 是StackGAN 用来于鸟评估的inception score模型 也可以用于AttnGAN、DF-GAN等等文本生成图像模型当中 主要用于评估图像质量
2022-05-12 12:05:15 345.43MB 文档资料 文本生成图像 深度学习 GAN
很多人评论问我要,可能回复不及时,放这里可以直接下载。
2022-05-10 12:05:19 142.7MB 预训练模型
1
迁移学习在深度学习中是经常被使用的方法,指的是在一个任务中预训练的模型被用于另一个任务的模型训练,以加快模型训练,减少资源消耗。 然而网络搜索相关的话题,基本上只涉及加载预训练模型的特定变量值的方法,即不涉及预训练模型某个变量与当前任务网络对应变量shape改变的处理。 在具体的语音合成多说话人模型迁移学习得到单说话人模型的任务中,就涉及到了迁移变量改变shape的情况,将解决方法如下列出。 文章目录一. 问题来源二. 相关接口三. 解决方法 一. 问题来源        语音合成多说话人模型迁移学习得到单说话人模型的任务中,涉及了迁移变量改变shape的情况。        一个不可避免的是
2022-05-09 11:04:42 65KB al ens fl
1
我们介绍一些使用预训练网络的实际例子,这些网络出现在TorchVision模块的图像分类中。 Torchvision包包括流行的数据集,模型体系结构,和通用的图像转换为计算机视觉。基本上,如果你进入计算机视觉并使用PyTorch, Torchvision将会有很大的帮助!
2022-05-07 21:05:47 4KB pytorch 分类 文档资料 人工智能
resnet50预训练模型,基于imagenet得到的预训练模型,主要是适用于加载预训练参数,配合prototxt文件使用最佳。
2022-05-06 13:22:48 90.74MB 预训练模型
1
数据集和预训练模型-附件资源
2022-05-05 14:42:52 23B
1
SIFRank_zh 这是我们论文的相关代码原文是在对英文关键短语进行抽取,这里迁移到中文上,部分管道进行了改动英文原版在。。 版本介绍 2020/03 / 03——最初最初版本本版本中只包含了最基本的功能,部分细节还有待优化和扩展。 核心算法 预训练模型ELMo +句向量模型SIF 词向量ELMo优势:1)通过大规模预训练,较早的TFIDF,TextRank等基于统计和图的具有更多的语义信息; 2)ELMo是动态的,可以改善一词多义问题; 3)ELMo通过Char -CNN编码,对生隐词非常友好; 4)不同层的ELMo可以捕捉不同层次的信息 句子矢量SIF优势:1)根据词频对词向量进行平滑逆频率变换,能更好地捕捉句子的中心话题; 2)更好地过滤通用词 最终关键焦点识别 首先对句子进行分词和词性标注,再利用正则表达式确定确定名词短语(例如:形容词+名词),将名词作为前缀关键字 最终关键利率
1
该资源是U2Net网络的预训练模型u2net.pth U2-Net: Going Deeper with Nested U-Structure for Salient Object Detection 觉得其他人要价太坑人了
2022-04-16 13:05:25 156.85MB U2NET 预训练模型 目标检测 图片分割
1
Word2Vec 模型word2vec-google-news-300。在 Google News 数据集上训练完成的 Word2Vec 模型,覆盖了大约 300 万的词汇和短语。该模型是利用了整个 Google News 大约 1000 亿个词的语料训练而成!由于文件太大,将压缩包分成了10个部分。
2022-04-14 10:53:33 43.3MB 自然语言处理 预训练模型
1