带有元数据的文本的最小监督分类 该项目提供了一个对文本与元数据进行分类的弱监督框架。 安装 为了进行培训,强烈建议您使用GPU。 凯拉斯 该代码基于Keras库。 您可以找到安装说明。 相依性 该代码是用Python 3.6编写的。 依赖关系总结在文件requirements.txt 。 您可以像这样安装它们: pip3 install -r requirements.txt 快速开始 要在我们的论文中再现结果,您需要首先下载。 我们的论文中使用了五个数据集。 不幸的是,由于我们对数据提供者的承诺,因此无法发布GitHub-Sec数据集。 其他四个数据集可用。 解压缩下载的文件后,您可以分别看到对应于这四个数据集的四个文件夹。 数据集 文件夹名称 #文件 #班 类名(该类中的#Repository) bio/ 876 10 序列分析(210),基因组分析(176),基因表达(6
1
SimCLR-视觉表示形式对比学习的简单框架 消息! 我们发布了SimCLR的TF2实现(以及TF2中的转换后的检查点),它们位于。 消息! 新增了用于Colabs,请参见。 SimCLR的插图(来自 )。 SimCLRv2的预训练模型 我们在这里开源了总共65个经过预训练的模型,与论文的表1中的模型相对应: 深度 宽度 SK 参数(M) 金融时报(1%) FT(10%) FT(100%) 线性评估 监督下 50 1倍 错误的 24 57.9 68.4 76.3 71.7 76.6 50 1倍 真的 35 64.5 72.1 78.7 74.6 78.5 50 2倍 错误的 94 66.3 73.9 79.1 75.6 77.8 50 2倍 真的 140 70.6 77.0 81.3 77.7 79.3 101 1
1
自监督学习相关论文 Self-supervised Learning for Linking Knowledge Graphs(TKDE21)
2022-12-21 16:28:38 3MB 自监督
1
Contrastive Self-supervised Learning for Graph Classification
2022-12-21 16:28:36 525KB 对比学习
1
自监督学习用于推荐
2022-12-21 11:27:22 3.75MB self-supervised
1
半监督分层递归图神经网络用于城市范围内的停车位可用性预测 这是SHARE体系结构的Pytorch实现,如论文《。 如果您在研究中利用SHARE模型,请引用以下内容: @article{zhang2019semi, title={Semi-Supervised Hierarchical Recurrent Graph Neural Network for City-Wide Parking Availability Prediction}, author={Zhang, Weijia and Liu, Hao and Liu, Yanchi and Zhou, Jingbo and Xiong, Hui}, booktitle={Proceedings of the Thirty-Fourth AAAI Conference on Artificial Intelligen
1
半监督单图像去雾 半监督单图像去雾代码。 依赖 pytorch >= 1.0 visdom 数据集制作 通过以下方式使您成为数据集: 合成图像:将两张图像(朦胧(HxWxC),清洁(HxWxC))对齐为一张图像(Hx2WxC)。 要注意的是,H和W应该是8的倍数。将它们( ./datasets/dehazing/train张图像)放在./datasets/dehazing/train 。 真实的模糊图像:将它们( ./datasets/dehazing/unlabeled张图像)放在./datasets/dehazing/unlabeled 测试图像:与1.对齐,然后将它们放在./datasets/dehazing/test 火车 您可以通过以下方式训练模型: python train.py --dataroot ./datasets/dehazing --name run_
2022-10-29 20:19:08 491KB semi-supervised-learning dehazing Python
1
自我监督视觉预训练的密集对比学习 该项目托管用于实现DenseCL算法以进行自我监督表示学习的代码。 王新龙,张如凤,沉春华,Kong涛,李磊在:Proc。 IEEE Con​​f。 2021年的计算机视觉和模式识别(CVPR) arXiv预印本( ) 强调 增强密集预测: DenseCL预训练模型在很大程度上有利于密集预测任务,包括对象检测和语义分段(最高+ 2%AP和+ 3%mIoU)。 简单的实现: DenseCL的核心部分可以用10行代码实现,因此易于使用和修改。 灵活的用法: DenseCL与数据预处理脱钩,因此可以快速灵活地进行培训,同时不知道使用哪种增强方法以及如何对图像进行采样。 高效的培训:与基准方法相比,我们的方法引入的计算开销可忽略不计(仅慢1%)。 更新 发布了DenseCL的代码和预训练模型。 (02/03/2021) 安装 请参考进行安装和数据集准备。
1
本文设计了一个自我监督的注意模块,该模块可以识别感兴趣的显着区域,而无需明确的手工标记注释。在现有的以CNNs为特征提取器的深度RL方法中,可以直接即插即用。 注意模块学习的是前景注意掩码,而不是预定义的关键点数量。
2022-10-12 17:06:59 7.33MB 自注意力
1