SimCLR SimCLR的PyTorch实现:T. Chen等人的可视表示形式对比学习的简单框架。包括对以下方面的支持: 分布式数据并行训练 全局批量归一化 LARS(分层自适应速率缩放)优化器。 在Google Colab Notebook中打开SimCLR(具有TPU支持) 在tensorboard.dev上打开SimCLR结果比较: 快速入门(微调线性分类器) 这将下载一个预训练的模型并训练线性分类器,该分类器在STL-10测试仪上应具有± 82.9%的精度。 git clone https://github.com/spijkervet/SimCLR.git && cd SimCLR wget https://github.com/Spijkervet/SimCLR/releases/download/1.2/checkpoint_100.tar sh setup.sh ||
1
AAAI 2019 Tutorial的图表示学习分享, William Hamilton 和加拿大蒙特利尔算法研究所的Jian Tang 跟大家交流了图表示学习的当前进展
2021-09-27 16:41:57 6.06MB 图表示学习 GRL 图深度学习
1
双水平图神经网络 总览 此存储库包含用于药物相互作用预测的双层图神经网络的代码。 有关详细信息,请参阅我们的论文 用于药物相互作用预测的双层图神经网络。 白云生*,顾坚*,孙宜州,王伟。 ICML 2020图形表示学习及超越(GRL +)研讨会 。 模型 我们引入Bi-GNN建模生物链接预测任务,例如药物-药物相互作用(DDI)和蛋白质-蛋白质相互作用(PPI)。 以药物-药物相互作用为例,使用机器学习的现有方法要么仅利用药物之间的链接结构而不使用每个药物分子的图形表示,要么仅利用单个药物化合物的结构而不对高级DDI使用图形结构图形。 我们方法的关键思想是从根本上将数据视为双层图,其中最高
1
PyTorch SimCLR:视觉表示形式对比学习的简单框架 带有完整文档的博客文章: 另请参见。 安装 $ conda env create --name simclr --file env.yml $ conda activate simclr $ python run.py 配置文件 在运行SimCLR之前,请确保选择正确的运行配置。 您可以通过将关键字参数传递给run.py文件来更改正在运行的配置。 $ python run . py - data . / datasets - - dataset - name stl10 - - log - every - n - steps 100 - - epochs 100 如果要在CPU上运行它(出于调试目的),请使用--disable-cuda选项。 要进行16位精度的GPU培训,请确保安装并使用--fp16_precision标志。 功能评估 使用线性模型协议进行特征评估。 首先,我们在STL10 unsupervised集中使用SimCLR学习了功能。 然后,我们在SimCLR的冻结特征之上训练线性分类器。 根据从STL
1
Heterogeneous Network Representation Learning: A Unified Framework with Survey and Benchmark 由于现实世界中的对象及其交互通常是多模态和多类型的,因此异构网络被广泛用作传统同构网络(图)的更强大、更真实和更通用的超类。同时,表征学习(又称嵌入)最近得到了广泛的研究,并被证明对各种网络挖掘和分析任务是有效的。在这项工作中,我们的目标是提供一个统一的框架,以深入总结和评估现有的异构网络嵌入(HNE)研究,包括但不限于一般的调查。由于已经有了大量的HNE算法,作为这项工作的第一个贡献,我们提供了一个通用的范例,用于系统地分类和分析各种现有HNE算法的优点。此外,现有的HNE算法虽然大多声称是通用的,但通常在不同的数据集上进行评估。由于HNE的应用优势,这种间接比较在很大程度上阻碍了将改进的任务性能正确地归因于有效的数据预处理和新颖的技术设计,特别是考虑到从实际应用数据构建异构网络的各种可能方式。因此,作为第二项贡献,我们从不同来源创建了四个基准数据集,这些数据集具有关于规模、结构、属性/标签可用性等的各种属性,以方便和公平地评估HNE算法。作为第三个贡献,我们仔细地重构和修改了实现,为13种流行的HNE算法创建了友好的界面,并在多个任务和实验设置中对它们进行了全面的比较。
1
表征学习为各种人工智能领域提供了一种革命性的学习范式。在本次调查中,我们研究和回顾了表征学习的问题,重点是由不同类型的顶点和关系组成的异构网络。这个问题的目标是自动将输入异构网络中的对象(最常见的是顶点)投影到潜在的嵌入空间中,这样网络的结构和关系属性都可以被编码和保留。然后可以将嵌入(表示)用作机器学习算法的特征,以解决相应的网络任务。为了学习表达性嵌入,当前的研究进展可以分为两大类:浅层嵌入学习和图神经网络。在对现有文献进行彻底审查后,我们确定了几个尚未解决的关键挑战,并讨论了未来的方向。最后,我们构建了异构图基准以促进对这个快速发展的主题的开放研究。
1
USSS_ICCV19 ICCV 2019接受通用半监督语义分割代码。 全文见 。 要求 Python> = 2.6 PyTorch> = 1.0.0 ImageNet预训练的模型是从的存储库下载的。 数据集 城市景观: : IDD: : 怎么跑 python segment.py --basedir --lr 0.001 --num-epochs 200 --batch-size 8 --savedir --datasets [ ..] --num-samples --alpha 0 --beta 0 --resnet --model drnet 致谢 大量代码是从Dilated Residual Networks( )和IDD Dataset( )的官方代码版本中大量借用的。
1
图表示网络
2021-06-17 18:00:38 2.41MB 图网络
1
在很少或没有监督的情况下学习有用的表示是人工智能的一个关键挑战。我们深入回顾了表示学习的最新进展,重点关注基于自编码器的模型。为了组织这些结果,我们使用了被认为对下游任务有用的元先验,比如特征的解缠和分层组织。特别地,我们揭示了三种主要机制来执行这些特性,即(i)正则化(近似或聚集)后验分布,(ii)分解编码和解码分布,或(iii)引入结构化的先验分布。虽然有一些有希望的结果,隐性或显性监督仍然是一个关键的促成因素,所有当前的方法使用强烈的归纳偏差和建模假设。最后,我们通过率失真理论分析了基于自编码器的表示学习,并明确了关于下游任务的现有知识量和表示对该任务的有用程度之间的权衡。
2021-06-01 22:06:06 2.36MB 深度学习 变分自编码器 表示学习 综述
1