我们已经更改了存储库,现在可以在找到PackNet-SfM
1
这是xiaojin zhu的学生Andrew Brian Goldberg于2010年写的一个report,指出了半监督学习的未来发展方向。
2021-05-09 11:07:44 3.23MB semi-supervised new directions SVM
1
在最新AAAI 2020的邀请嘉宾报告上,Facebook人工智能总监、图灵奖得主Yann Lecun给了自监督学习的报告《Self-Supervised Learning 》,44页ppt,介绍了深度学习面临的挑战,自监督学习的光明前景,基于能量学习的因变量模型,介绍最新自监督学习的进展与问题,是非常值得看的报告。
2021-05-03 23:04:16 30.37MB Self-Supervised
1
甘伯特 论文代码GAN-BERT:具有健壮标签分类示例的生成式对抗性学习和一堆带标签的示例已在2020年ACL上发表-Danilo Croce (罗马大学Tor Vergata),朱塞佩·卡斯特鲁奇( Giuseppe Castellucci) (亚马逊)和Roberto Basili的短文(罗马大学的Tor Vergata)。该文件可以在找到。 GAN-BERT是BERT的扩展,它使用“生成对抗”设置来实现有效的半监督学习模式。它允许使用由有限数量的标记示例和未标记材料的较大子集组成的数据集训练BERT。 GAN-BERT可用于序列分类任务(也涉及对文本对)。 该代码在TREC数据集上运行GAN-BERT实验,以实现细粒度的“问题分类”任务。我们在此程序包中提供了代码和用于运行实验的数据,方法是使用2%的标记材料(109个示例)和5343个未标记的示例。测试集由500个带注释的示例组成
1
一篇数据挖掘课的作业论文。 关于半监督学习方面的综述性文章。 所参考文献在2009年以前。 目前这方面的中文文献相对较少,希望我的这篇作业能对有兴趣做这方面研究的朋友有所帮助,其中错误之处还请大家多多指出。
1
监督分类_DT_GaussianNB 使用决策树和高斯朴素贝叶斯对葡萄酒数据集进行分类
2021-04-22 19:02:11 150KB JupyterNotebook
1
有监督的自动编码器MLP 在金融ML竞赛中使用的有监督自动编码器MLP模型的Pytorch实现。 想法是,将训练AE以生成数据集的降维(编码器输出)表示,然后在编码器输出和原始输入的级联中训练MLP。 损失函数可以在任务中进行修改(例如,BCE用于分类,MSE用于回归等)。 可能需要修改输出激活功能(例如,从ReLU到Sigmoid,进行二元交易分类)。 一些代码从我的Resnet存储库中回收(例如GaussNoise层,提早停止,清除了K折)。 基于: :
2021-04-05 12:05:24 16KB Python
1
Pytorch实战4:(win10 +ubuntu)对抗语义分割源码调试《Adversarial Learning for Semi-supervised Semantic Segmentation》-附件资源
2021-04-03 17:51:42 106B
1
FLOWPRINT-Semi-Supervised Mobile-App.pdf
2021-03-31 09:00:54 938KB FLOWPRINT-Semi-S
1
分层预训练:研究资料库 这是一个用于复制“自我监督的预培训改善自我监督的预培训”项目结果的研究资料库。 您可以在这里找到arXiv的预拼版: ://arxiv.org/abs/2103.12718 @article{reed2021self, title={Self-supervised pretraining improves self-supervised pretraining.}, author={Reed, Colorado J and Yue, Xiangyu and Nrusimha, Ani and Ebrahimi, Sayna and Vijaykumar, Vivek and Mao, Richard and Li, Bo and Zhang, Shanghang and Guillory, Devin and Metzger, Sean and Keut
2021-03-25 13:07:14 2.56MB Python
1