在很少或没有监督的情况下学习有用的表示是人工智能的一个关键挑战。我们深入回顾了表示学习的最新进展,重点关注基于自编码器的模型。为了组织这些结果,我们使用了被认为对下游任务有用的元先验,比如特征的解缠和分层组织。特别地,我们揭示了三种主要机制来执行这些特性,即(i)正则化(近似或聚集)后验分布,(ii)分解编码和解码分布,或(iii)引入结构化的先验分布。虽然有一些有希望的结果,隐性或显性监督仍然是一个关键的促成因素,所有当前的方法使用强烈的归纳偏差和建模假设。最后,我们通过率失真理论分析了基于自编码器的表示学习,并明确了关于下游任务的现有知识量和表示对该任务的有用程度之间的权衡。
2021-06-01 22:06:06 2.36MB 深度学习 变分自编码器 表示学习 综述
1
知识图谱基础任务,图表示学习论文Deepalk和Node2Vector论文中所使用的数据集BlogCatalog,经过漫长的搜索找到的,来之不易,分享给大家学习使用
2021-05-13 23:10:54 957KB 图表示学习
1
主要包括:表示学习概述、词向量表示学习、知识表示学习和网络表示学习
2021-05-11 15:20:10 7.47MB 表示学习 知识表示学习 词向量
1
本资源包含了几篇关于社团发现的英文文献,从网络/节点表示学习、图聚类、图神经网络等方向来解决的。 特色:1、本资源是对以下几篇论文的精准翻译,且经过严谨排版,公式手动完美复现,保证阅读流畅无障碍。2、对与不喜欢看英文文献或想节约时间的小伙伴强烈推荐!!! 1、Deep Attributed Network Embedding 2、vGraph: A Generative Model for Joint Community Detection and Node Representation Learning 3、A Unified Framework for Community Detection and Network Representation Learning 4、Attributed Graph Clustering: A Deep Attentional Embedding Approach
近年来,图上的无监督网络表示学习(unsupervised network representation learning,简称UNRL)方法取得了显著进展,包括灵活的随机游走方法、新的优化目标和深度架构。然而,没有一个共同基准来系统地比较嵌入方法来理解它们对于不同的图和任务的性能。我们认为,大多数的UNRL方法不是建模和利用节点的邻域,就是我们所说的节点上下文信息。这些方法在定义和对上下文的利用上有很大的不同。
2021-04-10 18:06:55 1.41MB 网络表示学习
1
本文精选了几篇**因果表示学习**领域的最新文献,并细致分析了不同方法的基本架构,希望能帮助感兴趣的你对**因果学习应用于机器学习**的方向和可能一探究竟。 提取模块化结构(Learning modular structures) 反事实推理(Counterfactual) 平衡因果表示学习 收录了此文补充引用的文章 图灵奖得主Judea Pearl:机器学习的理论局限性与因果推理的七大特性 最后,本.md笔记收录了丁鹏老师的因果推断简介连载文章
2021-04-06 15:21:44 17.65MB 因果表示学习 因果推断
1
通过∆表示学习提炼区分和泛化知识以进行事件检测
2021-03-12 14:08:42 569KB 研究论文
1
清华大学、刘知远教授的博士生的博士涂存超 的 论文和答辩PPT。面向社会计算的网络表示学习,学习如何表示用户信息与item信息,以便更好地匹配。
2021-01-28 05:01:47 26.92MB 图网络 深度学习 社区挖掘
1