我院师生2篇论文被CCF-A类会议ICML录用

发布时间:2020-06-11 16:10 浏览量:638新闻类型: 学院新闻

近日,信息学院师生有2篇论文被CCF-A类会议ICML(2020)录用。ICML(国际机器学习大会,International Conference of Machine Learning)是机器学习和人工智能领域顶级国际学术会议,由国际机器学习学会(IMLS)主办,被中国计算机学会(CCF)推荐为A类国际学术会议,至今已举办36届,今年将于2020年7月12日-7月18日在线上召开。本届ICML会议共收到投稿4990篇,其中录用论文1088篇,录取率约为21.8%。

论文介绍

第一作者:陈明(人大硕士生)

通讯作者:魏哲巍教授

作 者:陈明,魏哲巍,黄增峰,丁博麟,李雅亮

论文题目:Simple and Deep Graph Convolutional Networks

论文概述:图卷积网络(GCNs)是一种图结构数据上的深度学习方法。最近,GCN模型在很多应用领域都显示出了卓越的性能。但是由于过度平滑的问题,大多数当前的图卷积网络都是浅层模型,这限制了它们获取高阶信息的能力。本文研究了设计和分析多层图卷积的问题,提出深层图卷积模型GCNII。GCNII使用初始残差和恒等映射这两种技术拓展GCN的模型深度。本文提供了理论和经验证明,这两种技术有效地解决了过度平滑的问题。实验表明,深层GCNII模型在各种半监督和全监督任务上均优于现有的方法。

论文介绍

第一作者:管界超(人大博士生)

通讯作者:卢志武教授

作 者:管界超,卢志武, Tao Xiang, 文继荣

论文题目:Few-Shot Learning as Domain Adaptation: Algorithm and Analysis

论文概述:为了利用少量标注样本实现对未见类图片的识别,小样本学习 (Few-Shot Learning)希望从可见类图片中学习先验知识。小样本学习的难点是未见类别的数据分布与可见类别的不同,从而导致在可见类上训练好的模型无法较好地迁移到未见类别领域。这种由于类别不同导致的数据分布差异可以看作是一种特殊的领域迁移问题。在这篇论文中,我们提出了一种基于注意力机制的领域迁移原型网络 (DAPNA),去解决在元学习 (meta-learning) 框架下的领域迁移问题。具体来说是在训练过程中,我们将可见类的一个纪元 (episode,训练单位)分拆成两个类别完全不重合的子纪元(sub-episode),用以模拟从可见类到未见类的领域迁移。为了对齐两个子纪元之间的图片特征分布,我们利用间隔差异损失函数来优化特征迁移网络。在假定所有纪元都采样于同一个分布的情况下,我们在理论上给出了该模型的期望损失上界。诸多实验也表明我们所提出的DAPNA模型能比已有小样本学习模型取得更好的效果。