在传统的机器学习的框架下,学习的任务就是在给定充分训练数据的基础上来学习一个分类模型;然后利用这个学习到的模型来对测试文档进行分类与预测。然而,我们看到机器学习算法在当前的Web挖掘研究中存在着一个关键的问题:一些新出现的领域中的大量训练数据非常难得到。我们看到Web应用领域的发展很快速。大量新的领域不断涌现,从传统的新闻,到网页,到图片,再到博客、播客等。传统的机器学习需要对每个领域都标定大量训练数据,这将会耗费大量的人力与物力。而没有大量的标注数据,会使得很多与学习相关研究与应用无法开展。其次,传统的机器学习假设训练数据与测试数据服从相同的数据分布。然而,在许多情况下,这种同分布假设并不满足。通常可能发生的情况如训练数据过期。这往往需要我们去重新标注大量的训练数据以满足我们训练的需要,但标注新数据是非常昂贵的,需要大量的人力与物力。从另外一个角度上看,如果我们有了大量的、在不同分布下的训练数据,完全丢弃这些数据也是非常浪费的。如何合理的利用这些数据就是迁移学习主要解决的问题。
2021-10-19 15:04:18 596KB 迁移学习( Transfer Learning
1
Abstract—Transfer learning aims at improving the performance of target learners on target domains by transferring the knowledge contained in different but related source domains. In this way, the dependence on a large number of target domain data can be reduced for constructing target learners. Due to the wide application prospects, transfer learning has become a popular and promising area in machine learning. Although there are already some valuable and impressive surveys on transfer learning, these surveys introduce approaches in a relatively isolated way and lack the recent advances in transfer learning. As the rapid expansion of the transfer learning area, it is both necessary and challenging to comprehensively review the relevant studies. This survey attempts to connect and systematize the existing transfer learning researches, as well as to summarize and interpret the mechanisms and the strategies in a comprehensive way, which may help readers have a better understanding of the current research status and ideas. Different from previous surveys, this survey paper reviews over forty representative transfer learning approaches from the perspectives of data and model. The applications of transfer learning are also briefly introduced. In order to show the performance of different transfer learning models, twenty representative transfer learning models are used for experiments. The models are performed on three different datasets, i.e., Amazon Reviews, Reuters-21578, and Office-31. And the experimental results demonstrate the importance of selecting appropriate transfer learning models for different applications in practice.
2021-10-14 13:51:36 802KB 迁移学习 transfer learnin
1
Dureader-Bert 2019 Dureader机器阅读理解单模型代码。 哈工大讯飞联合实验室发布的中文全词覆盖BERT 只需将要加载的预训练模型换为压缩包内的chinese_wwm_pytorch.bin,即从_pretrained函数中weights_path和config_file即可。 谷歌发布的中文伯特与哈工大发布的中文全词覆盖BERT在Dureader上的效果对比 模型 ROUGE-L BLEU-4 谷歌bert 49.3 50.2 哈工大伯特 50.32 51.4 由于官方没有指定测试集,实验数据是在验证集上跑出来的 许多人询问,说明一下: 1,数据处理是自己写
2021-09-26 14:01:37 86.97MB nlp qa pytorch transfer-learning
1
迁移学习 Transfer Learning(可能是目前最全的迁移学习资料库?)-附件资源
2021-09-18 10:27:38 106B
1
迁移学习入门级综述文章:A Survey on Transfer Learning。分享给大家~
2021-09-13 17:30:53 2.41MB 迁移学习
1
使用NVIDIA预训练模型和Transfer Learning Toolkit 3.0与机器人创建基于手势的交互 在这个项目中,我们演示如何训练您自己的手势识别深度学习管道。 我们从预先训练的检测模型开始,使用Transfer Learning Toolkit 3.0将其重新用于手部检测,然后将其与专用手势识别模型一起使用。 经过培训后,我们将在NVIDIA:registered:Jetson:trade_mark:上部署此模型。 可以将这种手势识别应用程序部署在机器人上以理解人类手势并与人类进行交互。 该演示可以作为点播网络研讨会提供: : 第1部分。训练对象检测网络 1.环境设置 先决条件 Ubuntu 18.04 LTS python> = 3.6.9 = 19.03.5 docker-API 1.40 nvidia-container-toolkit> = 1.3.0-1
2021-08-26 15:23:37 257KB C
1
这是博客训练模型用到的数据库,4000张猫狗图片。每一张都标了是cat还是dog。这个资源来自https://www.kaggle.com/c/dogs-vs-cats/data
2021-08-25 08:41:27 86.61MB 图片
1
提出了基于”迁移学习+少数磁盘故障预测”的TLDFP模型。 主要采用了TrAdaBoost(权重调整的迁移学习方法)的思想。 作者 张霁 华中科技大学博士 可免费下载。
2021-08-18 22:21:30 2.43MB 迁移学习 TLDFP TrAdaBoost 异常检测
1
只希望这份资源对想研究迁移学习的同学有用,我主要研究这方面,以后有什么好的资源会继续分享的,希望大家能互相交流。
2021-08-15 15:50:28 4.42MB C_TraDaBoost
1
迁移学习(Transfer Learning)作为近年来的研究热点之一,受到了广泛关注,每年在各大会议上都有大量的相关文章发表。由于其广泛的应用前景,迁移学习已经成为机器学习中一个热门和有前途的领域。这篇新出论文对近几年迁移学习进行了全面综述,对现有的迁移学习研究进行梳理使其系统化,并对迁移学习的机制和策略进行全面的归纳和解读,帮助读者更好地了解当前的研究现状和思路。
2021-07-22 23:21:05 684KB transfer_learnin
1