ICLR2020 最新提交论文,这五篇Open代码的 GNN 论文值得读

新智元

共 3274字,需浏览 7分钟

 · 2019-10-14

8746bc89bbe342b10d73584525375539.webp


  新智元推荐  来源:专知整理编辑:张佳
【新智元导读】最近,人工智能和机器学习领域的国际顶级会议ICLR 2020刚刚截止submission不久,大会共收到近2600篇投稿,相比ICLR 2019的1580篇论文投稿,今年增幅约为62.5%,竞争尤其激烈。现在进入online open review阶段,图神经网络(GNN)相关的论文依然很火爆,为此,小编提前为大家筛选了五篇Open代码的GNN相关论文供参考和学习!新智元AI朋友圈与AI大咖一起参与讨论吧~


最近,人工智能和机器学习领域的国际顶级会议ICLR 2020刚刚截止submission不久,大会共收到近2600篇投稿,相比ICLR 2019的1580篇论文投稿,今年增幅约为62.5%,竞争尤其激烈。现在进入online open review阶段,图神经网络(GNN)相关的论文依然很火爆,为此,小编提前为大家筛选了五篇Open代码的GNN相关论文供参考和学习!后续小编还会整理ICLR 2020的相关论文和最新信息,敬请期待。


EMNLP2019GNNICCV2019GNN_Part2ICCV2019GNN_Part1NIPS2019GNNIJCAI2019GNN_Part1IJCAI2019GNN_Part2、 KDD2019GNNACL2019GNNCVPR2019GNNICML2019GNN


1. Unsupervised Learning of Graph Hierarchical Abstractions with Differentiable Coarsening and Optimal Transport


摘要:层次抽象是解决各种学科中大规模图数据问题的一种方法。Coarsening就是这样一种方法:它生成一个金字塔形的图,其中下一层图是上一层图的结构总结。科学计算历史悠久,许多Coarsening策略是基于数学驱动的启发式算法发展起来的。近年来,人们对通过可微参数化设计可学习的层次方法的研究又有了新的兴趣。这些方法与下游任务配对以进行监督学习。在这项工作中,我们提出了一种无监督的方法,称为OTCoarsening,使用最优transport。OTCoarsening矩阵和transport成本矩阵都是参数化的,这样就可以学习最优coarsening策略并针对给定的一组图进行裁剪。结果表明,与监督方法相比,该方法能生成有意义的coarse图,且具有较好的分类性能。277c2a19229d46a49a8dc2bcc783d47a.webp11c700b787d79336ddac3ed25ccceee0.webp网址:https://openreview.net/forum?id=Bkf4XgrKvS代码:https://github.com/anonymousOPT/OTCoarsening


2. Fractional Graph Convolutional Networks (FGCN) for Semi-Supervised Learning
摘要:由于在许多应用程序(从社交网络到区块链到电网)中的高实用性,对非欧几里德对象(如图和流形)的深入学习继续获得越来越多的兴趣。目前大多数可用的技术都是基于这样的思想,即在spectral域中使用适当选择的非线性可训练滤波器进行卷积运算,然后使用有限阶多项式逼近滤波器。然而,这种多项式逼近方法往往对图结构的变化不具有鲁棒性,而且主要用于捕获全局图拓扑。在本文中,我们提出一种新的Fractional Generalized Graph Convolutional Networks (FGCN)方法,该方法将L'evy Fights投射到图上的随机游走中,因此,可以更准确地解释内在图拓扑和大幅度提高分类性能,尤其是对异构图形。bc215acc8deeec1d546f3cbc8c5ed87e.webp网址:https://openreview.net/forum?id=BygacxrFwS代码:https://github.com/yuzhouchen92/


3. Transfer Active Learning For Graph Neural Networks 


摘要:图神经网络在节点分类等多种图数据预测任务中已被证明是非常有效的。一般来说,训练这些网络需要大量的标记数据。然而,在现实中,在大型图数据中获取大量标记数据的成本可能非常高。本文研究了图神经网络的主动学习(active learning)问题。,即如何有效地标记图上的节点来训练图神经网络。我们将该问题描述为一个连续的决策过程,该过程对信息节点进行了连续的标记,并训练了一个策略网络来最大化图神经网络在特定任务中的性能。此外,我们还研究了如何学习一个通用的策略,用多个训练图在图上标记节点,然后将学习到的策略迁移到不可见的图上。在单一图和多重训练图(迁移学习设置)的实验结果证明了我们提出的方法在许多竞争性baseline上的有效性。5b81e6ddf99342f21a56ca6704fcc1d8.webp网址:https://openreview.net/forum?id=BklOXeBFDS代码:https://drive.google.com/drive/folders/1GFGR2WFEuG49MQN-nX4pkZj9Y_E7vPP5


4. Chordal-GCN: Exploiting sparsity in training large-scale graph convolutional networks


摘要:尽管图卷积网络(GCNs)在众多应用中取得了令人瞩目的成功,但大规模稀疏网络的训练仍然具有挑战性。当前的算法需要大量的内存空间来存储GCN输出以及所有的中间嵌入。此外,这些算法大多涉及随机抽样或邻接矩阵的近似,这可能会很不幸地丢失重要的结构信息。在这篇论文中,我们建议使用Chordal-GCN来进行半监督节点分类。该模型利用了精确的图结构(即不需要采样或近似),而与原来的GCN相比,需要有限的内存资源。此外,它还利用了图的稀疏模式和集群结构。该模型首先将一个大规模的稀疏网络分解成几个小的稠密子图(称为cliques),然后构造一个clique树。通过遍历树,GCN训练是按clique进行的,并通过树层次结构利用clique之间的连接。此外,我们在大规模数据集上实现了Chordal-GCN,并展示了优越的性能。9cb0b1ed01ac60e374592d794a3d9dff.webp6cc1d7d68a2cd6d25f109d3232db9825.webp2c9802986d365ee26854165357558669.webp网址:https://openreview.net/forum?id=rJl05AVtwB代码:
https://www.dropbox.com/s/0vby5gbu9qkbigr/chordal-gcn.zip?dl=0


5. Graph Neural Networks for Soft Semi-Supervised Learning on Hypergraphs 


摘要基于图的半监督学习(SSL)将标签分配给图中最初未标记的顶点。图神经网络(GNNs),特别是图卷积网络(GCNs),启发了当前基于图的SSL问题的最新模型。GCN本质上假定目标标签是数值或类别变量。然而,在许多实际应用中,如coauthorship网络、推荐网络等,顶点标签可以很自然地用概率分布或直方图来表示。此外,真实世界的网络数据集具有复杂的关系,超出了两两关联的范畴。这些关系可以通过超图自然而灵活地建模。在本文中,我们探讨了基于图的直方图SSL的GNN。受现实网络中复杂关系(超越两两关系)的启发,我们提出了一种新的有向超图方法。我们的工作基于现有的graph-based SSL 直方图,源自optimal transportation理论。本文的一个重要贡献是在算法稳定性的框架下建立了单层GNN的泛化误差边界。我们还通过对真实数据的详细实验,证明了我们提出的方法的有效性。我们已经提供了代码。48a890a908490bd7c605a1779ac033c4.webpb989dce348fd814de96588de5cccf74b.webp网址:https://openreview.net/forum?id=ryestJBKPB代码:
https://drive.google.com/file/d/1i7l5jPBPZ3TRG7YkG6NvJ10j19dnAfOf/view?usp=sharing


88d2577eab5308a08c15349c727a7f9b.webp
浏览 24
点赞
评论
收藏
分享

手机扫一扫分享

举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

举报