半监督转移学习的自适应一致性正则化 该存储库用于以下论文中介绍的自适应知识一致性和自适应表示表示一致性: Abulikemu Abuduweili,Li Xingjian Li,Humphrey Shi,徐成中和Dou Dedou,“半监督转移学习的自适应一致性正则化”。 该代码是在具有Tesla V100 GPU的CentOS 6.3环境(Python 3.6,PyTorch 1.1,CUDA 9.0)上开发的。 内容 介绍 在这项工作中,我们考虑半监督学习和转移学习的结合,从而导致一种更实用和更具竞争力的范例,该范例可以利用源域中强大的预训练模型以及目标域中的带标签/未带标签的数据。 为了更好地利用预训练权重和未标记目标示例的价值,我们引入了自适应一致性正则化,它由两个互补组成部分:源模型和目标模型之间((标记和未标记)示例上的自适应知识一致性(AKC);以及目标模型上带标签和未
2022-01-16 10:30:29 708KB Python
1
在PyTorch上进行深度转移学习 这是用于深度迁移学习的PyTorch库。 我们将代码分为两个方面:单源无监督域自适应(SUDA)和多源无监督域自适应(MUDA)。 SUDA方法很多,但是我发现有一些深度学习的MUDA方法。 此外,具有深度学习的MUDA可能是领域适应性更广阔的方向。 在这里,我实现了一些深度传输方法,如下所示: UDA DDC:针对领域不变性的深度领域混淆最大化 DAN:通过深度适应网络学习可转让特性(ICML2015) Deep Coral:用于深域适应的Deep CORAL相关对齐(ECCV2016) Revgrad:通过反向传播进行无监督域自适应(ICML2015) MRAN:用于跨域图像分类的多表示自适应网络(Neural Network 2019) DSAN:用于图像分类的深度子域适配网络(神经网络和学习系统2020的IEEE交易) 慕达对齐特
1
转移学习进行故障诊断 迁移学习故障诊断深度神经网络 该存储库用于转移学习或具有故障诊断的领域自适应。 论文如下: 引文 如果您使用此代码和数据集进行研究,请考虑引用: @inproceedings{zhang2019domain, title={Domain Adaptation with Multilayer Adversarial Learning for Fault Diagnosis of Gearbox under Multiple Operating Conditions}, author={Zhang, Ming and Lu, Weining and Yang, Jun and Wang, Duo and Bin, Liang}, booktitle={2019 Prognostics and System Health Management Confere
2021-12-15 15:03:25 277KB transfer-learning fault-diagnosis Python
1
狗品种分类器 在该项目中,首先,我实施了卷积神经网络,使用转移学习对狗的品种进行分类。 在转移学习中,我们使用的是经过预训练的网络,例如VGG-16,Resnet,Inception,Xception等。 目标 对狗的品种进行分类 依存关系 麻木 大熊猫 凯拉斯 球状 matplotlib cv2 斯克莱恩 tqdm 皮尔 我用jupyter笔记本来实现 信用 Udacity深度学习纳米学位
1
着重描述联邦迁移学习参与放之间的协作,安全联邦迁移学习框架,计算损失和梯度的数学细节。着重描述联邦迁移学习参与放之间的协作,安全联邦迁移学习框架,计算损失和梯度的数学细节。
2021-11-24 12:36:35 756KB 联邦迁移学习 分布式计算
1
变分自编码器 (VAE) + 迁移学习 (ResNet + VAE) 该存储库在 PyTorch 中实现了 VAE,使用预训练的 ResNet 模型作为其编码器,使用转置卷积网络作为解码器。 数据集 1. MNIST 数据库包含 60,000 张训练图像和 10,000 张测试图像。 每个图像均保存为28x28矩阵。 2. CIFAR10 数据集包含10个类别的60000个32x32彩色图像,每个类别6000个图像。 3. Olivetti 人脸数据集 脸数据集由 40 个不同主题的 10 张 64x64 图像组成。 模型 模型包含一对编码器和解码器。 编码器 将 2D 图像x压缩为较低维度空间中的向量z ,该空间通常称为潜在空间,而解码器 接收潜在空间中的向量,并在与编码器输入相同的空间中输出对象。 训练目标是让encoder和decoder的组合“尽可能接近identity”。
2021-11-19 02:51:19 10.88MB vae resnet transfer-learning variational-autoencoder
1
Pardoe的论文“回归传递的提升(ICML 2010)”中的两阶段TrAdaBoost.R2算法 描述 这是Pardoe等人提出的基于Boost的回归任务转移学习算法(TwoStageTrAdaBoostR2)。 在论文“回归传递的提升(ICML 2010)”中。 程序TwoStageTrAdaBoostR2包含两个以scikit-learn风格编写的主要类,其结构如下: Stage2_TrAdaBoostR2 | __init__ | fit | _stage2_adaboostR2 | predict TwoStageTrAdaBoostR2 | __init__ | fit | _twostage_adaboostR2 | _beta_binary_search | predict 第一类Stage2_TrAdaBoostR2是sklearn软件包中AdaBoostRe
1
基于matlab的表情识别代码 迁移学习 Transfer Learning Everything about Transfer Learning (Probably the most complete repository?). Your contribution is highly valued! If you find this repo helpful, please cite it as follows: 关于迁移学习的所有资料,包括:介绍、综述文章、最新文章、代表工作及其代码、常用数据集、硕博士论文、比赛等等。(可能是目前最全的迁移学习资料库?) 欢迎一起贡献! 如果认为本仓库有用,请在你的论文和其他出版物中进行引用! @Misc{transferlearning.xyz, howpublished = {\url{http://transferlearning.xyz}}, title = {Everything about Transfer Learning and Domain Adapation}, author = {Wang, Jindong and other
2021-11-13 11:06:42 4.09MB 系统开源
1
跨域故障检测 包含实验代码和我的学士学位示例的存储库:通过最佳传输进行跨域故障检测。 更多细节即将推出! 动态系统 实施基准 两缸系统 连续搅拌React釜(CSTR)[1] 型号识别 一阶加延时 二阶加延时 PID调整 直接合成[2] 实施算法 基于实例的传输 内核均值匹配(KMM)[3] Kullback-Leibler重要度估计数(KLIEP)[4] 最小二乘重要性拟合(LSIF)[5] 基于特征的转移 传输成分分析(TCA)[6] 测地线内核(GFK)[7] 主成分分析(PCA)[7] 领域对抗神经网络(DANN)[8] 基于最佳运输的转移 Sinkhorn Transport [9]-已在库中实现 Monge Transport [10]-已在库中实现 联合分配最优运输(JDOT)[11]-改编自 结果 比较研究 React顺序 1.0 0.
1
Pytorch-图像分类 使用pytorch进行图像分类的简单演示。 在这里,我们使用包含43956 张图像的自定义数据集,属于11 个类别进行训练(和验证)。 此外,我们比较了三种不同的训练方法。 从头开始培训,微调的convnet和convnet为特征提取,用预训练pytorch模型的帮助。 使用的模型包括: VGG11、Resnet18 和 MobilenetV2 。 依赖关系 Python3,Scikit学习 Pytorch, PIL Torchsummary,Tensorboard pip install torchsummary # keras-summary pip install tensorboard # tensoflow-logging 注意:在训练之前将库更新到最新版本。 怎么跑 下载并提取训练数据集: 运行以下脚本进行训练和/或测试 python t
1