NeurIPS 2017 论文在2018年的引用量排名揭晓,第一名并非最佳论文奖

栏目: 数据库 · 发布时间: 5年前

内容简介:正如大家所知,NeurIPS是机器学习领域的顶级会议,在中国计算机学会的国际学术会议排名中,NeurIPS为人工智能领域的A类会议,国外甚至有很多高校已经把 NeurIPS论文的发表数量当做是接收本科生申请研究生的门槛了。本文统计了2017年在NeurIPS上发表的约679篇论文,下表例举了在2017.12—2018.12这期间引用量超过了100的论文,一共19篇。(统计时间:2018年12月18日)

正如大家所知,NeurIPS是机器学习领域的顶级会议,在中国计算机学会的国际学术会议排名中,NeurIPS为人工智能领域的A类会议,国外甚至有很多高校已经把 NeurIPS论文的发表数量当做是接收本科生申请研究生的门槛了。

本文统计了2017年在NeurIPS上发表的约679篇论文,下表例举了在2017.12—2018.12这期间引用量超过了100的论文,一共19篇。(统计时间:2018年12月18日)

论文名

引用量

Attention Is All You Need

934

Improved Training of Wasserstein GANs

830

Dynamic Routing Between Capsules

358

Self-Normalizing Neural Networks

317

Unsupervised Image-to-Image Translation  Networks

296

PointNet++: Deep Hierarchical Feature  Learning on Point Sets in a Metric Space

254

What Uncertainties Do We Need in Bayesian  Deep Learning for Computer Vision?

209

Prototypical Networks for Few-shot  Learning.

203

Inductive Representation Learning on  Large Graphs.

195

A simple neural network module for  relational reasoning.

195

Multi-Agent Actor-Critic for Mixed  Cooperative-Competitive Environments.

145

Hindsight Experience Replay.

131

GANs Trained by a Two Time-Scale Update  Rule Converge to a Local Nash Equilibrium.

127

Understanding the Effective Receptive  Field in Deep Convolutional Neural Networks.

124

One-Shot Imitation Learning.

121

LightGBM: A Highly Efficient Gradient  Boosting Decision Tree.

118

Dual Path Networks.

111

The Marginal Value of Adaptive Gradient  Methods in Machine Learning.

108

Spectrally-normalized margin bounds for  neural networks.

102

下面为大家简要概述引用量排名前3的论文。

Attention Is All You Need

《Attention Is All You Need》这篇论文提出了一种新的简单网络架构,transformer,仅基于注意机制,彻底免除了循环和 卷积神经网络 。两个机器翻译任务的实验显示了这些模型质量优越,同时可以更加并行化并且需要更多训练的时间减少了。论文中的模型在WMT 2014英语 - 德语上达到28.4 BLEU翻译任务,改进现有的最佳成果,包括集成学习结果,超过2 BLEU。

由于改进了翻译质量和其他NLP任务,该文的Transformer架构自发布以来获得了很大的关注。哈佛大学的NLP研究小组曾发布了一篇帖子,该文章以逐行实施的形式呈现了该论文的注释版本。它附带了400行库代码,用PyTorch以笔记本的形式编写,可以从github或Google Colab上使用免费的GPU访问。

链接:http://nlp.seas.harvard.edu/2018/04/03/attention.html

Improved Training of Wasserstein GANs

《Improved Training of Wasserstein GANs》一文中,研究者们提出了一种替代权重剪枝实施Lipschitz约束的方法:惩罚critic对输入的梯度。该方法收敛速度更快,并能够生成比权重剪枝的WGAN更高质量的样本。WGAN的critic函数对输入的梯度相比于GAN的更好,因此对生成器的优化更简单。另外,WGAN的值函数是与生成样本的质量相关的,这个性质是GAN所没有的。

该文提供了一种训练GAN的稳定的算法,能够更好的探索哪种架构能够得到最好的生成模型性能。该方法也打开了使用大规模图像或语言数据集训练以得到更强的模型性能的大门。

代码链接:https://github.com/caogang/wgan-gp

Dynamic Routing Between Capsules

《Dynamic Routing Between Capsules》引入了一个新的构建块,可用于深度学习,以更好地模拟神经网络内部知识表示内的层次关系。Hinton和他的团队提出了一种方法来训练这样一个由Capsules组成的网络,并成功地在一个简单的数据集上训练它,实现最先进的性能。

也许有人会觉得这个想法非常简单,为什么以前没有人能想出来?事实是Hinton几十年来一直在思考这个问题。没有出版物的原因仅仅是因为之前没有技术方法可以使它发挥作用。其中一个原因是在2012年之前,计算机处在一个不够强大的基于GPU之前的时代。另一个原因是没有算法允许实现并成功学习Capsules网络(以同样的方式实现人工神经元自1940年代以来就存在,但直到1980年代中期才出现反向传播算法并允许成功训练深度网络)


以上就是本文的全部内容,希望本文的内容对大家的学习或者工作能带来一定的帮助,也希望大家多多支持 码农网

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

Java in a Nutshell, 6th Edition

Java in a Nutshell, 6th Edition

Benjamin J Evans、David Flanagan / O'Reilly Media / 2014-10 / USD 59.99

The latest edition of Java in a Nutshell is designed to help experienced Java programmers get the most out of Java 7 and 8, but it's also a learning path for new developers. Chock full of examples tha......一起来看看 《Java in a Nutshell, 6th Edition》 这本书的介绍吧!

URL 编码/解码
URL 编码/解码

URL 编码/解码

SHA 加密
SHA 加密

SHA 加密工具

html转js在线工具
html转js在线工具

html转js在线工具