中文生成式预训练模型 NLU的预训练模型大家应该见过不少了,NLG的预训练资源还比较少。这里汇总一些中文的生成式预训练模型,给出bert4keras下的加载方式。 模型列表 GPT 以GPT为代表的单向语言模型预训练。 GPT Base(NEZHE-GEN) 链接: 大小:1亿参数,体积390M 说明:结构跟BERT Base一致,通用语料训练,官方github提供了下载链接,不过保存了多余的meta导致体积过大,笔者对原始权重进行了转换,可以从笔者提供的链接(,验证码xynn)下载,结果跟原版一样,体积更小。 使用: CDial-GPT 链接: (原版链接: ) 大小:1亿参数,体积350M 说明:模型为GPT模型,使用闲聊型对话语料训练。原版为pytorch模型,笔者对原始权重进行了转换。 使用: GPT2-ML 链接: 大小:15亿参数,体积5.3G 说明:基于BERT代码修改,跟最
2021-10-08 14:48:23 1KB
1
Python原来这么简单(win系统 提高篇)
2021-10-01 09:10:12 59.97MB python
1
Python原来这么简单(win系统 提高篇)
2021-10-01 09:10:08 80.19MB python
1
使用生成式对抗学习的3D医学图像分割很少 该存储库包含我们在同名论文中提出的模型的tensorflow和pytorch实现: 该代码在tensorflow和pytorch中都可用。 要运行该项目,请参考各个自述文件。 数据集 选择了数据集来证实我们提出的方法。 它包含10个标记的训练对象和13个未标记的测试对象的3D多模式脑MRI数据。 我们将这10个标记的训练数据分为两个模型的训练,验证和测试图像。(例如,2,1和7)13个未标记的测试图像中的其余部分仅用于训练基于GAN的模型。 数据集也用于测试我们提出的模型的鲁棒性。 它包含3种模式(T1加权,T1加权反转恢复和FLAIR)。 原始数据
1
异常检测是许多研究领域所面临的重要问题。探测并正确地将一些看不见的东西分类为异常是一个具有挑战性的问题,多年来已经通过许多不同的方式解决了这个问题。生成对抗网络(GANs)和对抗训练过程最近被用来面对这一任务,产生了显著的结果。在本文中,我们综述了主要的基于GAN的异常检测方法,并突出了它们的优缺点。在不同数据集上的实验结果的增加,以及使用GAN的异常检测的完整开源工具箱的公开发布。
2021-09-27 13:05:41 1.17MB 生成对抗网络
1
提出一种可用于改进图像超分辨率重建质量的双判别器超分辨率重建网络(DDSRRN)。该网络在生成式对抗网络(GAN)的基础上增加一个判别器,将Kullback-Leibler(KL)和反向KL散度组合成一个统一的目标函数来训练两个判别器,利用这两种散度的互补统计特性,能在多模式下分散预估计密度,从而避免重建过程中网络模型的崩溃问题,提高模型训练的稳定性。针对模型损失函数的设计部分,首先使用Charbonnier损失函数来构建内容损失,利用网络中间层的特征信息来设计感知损失和风格损失,最后为缩减图像重建时间,在网络结构中引入反卷积来完成图像重建操作。实验结果表明本文方法在主观视觉上具有丰富的细节,获得了更好的主观视觉评价和客观量化评价,网络泛化能力好。
2021-09-23 16:16:42 8.44MB 图像处理 生成式对 图像超分 卷积神经
1
最近几年的完整GAN完整综述,上面有各种资源的地址,值得认真阅读
2021-09-18 10:18:40 4.11MB 深度学习 对抗网络
1
Cyclegan生成式对抗网络,使用tensorflow快速实战-附件资源
2021-09-17 16:24:44 106B
1
基于生成式对抗网络GAN的自动驾驶容错感知研究
2021-08-15 18:07:04 46.92MB 自动驾驶
本资源通过整理目前GAN的相关论文做出PPT,PPT配套演讲文档,和附上PPT所述的来源引文
2021-05-18 13:27:19 17.96MB 生成式 对抗网络
1