NAACL 2019论文独特视角|纠正归因谬误:注意力没有解释模型

栏目: 编程工具 · 发布时间: 4年前

内容简介:NAACL 正式会议已于今年 6 月 2 日至 6 月 7 日在美国明尼阿波利斯市举行。据官方统计,此次 NAACL 2019 共收到论文 1955 篇论文,共接收论文 424 篇,录取率仅为 22.6%。其中收到长论文投稿 1198 篇,短论文 757 篇,今天分享给大家的是其中一篇涉及注意力模型的论文。过往的研究常常有这样的归因谬误,认为带注意力机制的神经网络中,学出的注意力分布似乎能决定模型输出。这篇NAACL文章《Attention is not Explanation》,从对抗注意力机制和特征重要

NAACL 正式会议已于今年 6 月 2 日至 6 月 7 日在美国明尼阿波利斯市举行。据官方统计,此次 NAACL 2019 共收到论文 1955 篇论文,共接收论文 424 篇,录取率仅为 22.6%。其中收到长论文投稿 1198 篇,短论文 757 篇,今天分享给大家的是其中一篇涉及注意力模型的论文。

NAACL 2019论文独特视角|纠正归因谬误:注意力没有解释模型

过往的研究常常有这样的归因谬误,认为带注意力机制的神经网络中,学出的注意力分布似乎能决定模型输出。这篇NAACL文章《Attention is not Explanation》,从对抗注意力机制和特征重要性两个维度,以丰富地实验指明、分析了这一谬误。

论文摘要:Attention mechanisms have seen wide adoption in neural NLP models. In addition to improving predictive performance, these are often touted as affording transparency: models equipped with attention provide a distribution over attended-to input units, and this is often presented (at least implicitly) as communicating the relative importance of inputs.However, it is unclear what relationship exists between attention weights and model outputs. In this work we perform extensive experiments across a variety of NLP tasks that aim to assess the degree to which attention weights provide meaningful “explanations" for predictions. We find that they largely do not. For example, learned attention weights are frequently uncorrelated with gradient-based measures of feature importance, and one can identify very different attention distributions that nonetheless yield equivalent predictions. Our findings show that standard attention modules do not provide meaningful explanations and should not be treated as though they do.

论文地址:https://arxiv.org/pdf/1902.10186.pdf

代码网址:https://github.com/successar/AttentionExplanation.

注意力机制

注意力机制是一种神经网络模型的结构,经常被用于NLP任务上。它在输入上引入了一个分布,称为注意力分布。注意力分布常常被认为解释了神经网络为何能成功应用于对应任务(Li, 2016)。
举一个情感分析任务中的例子。如下图左侧,为了解释模型输出负面情感的原因,过往文献通常画出模型学习到的注意力分布,并指出词“waste”上的注意力值最大。其暗含的意思是:不用怀疑啦,模型和人一样,都主要从这个负面词汇中推断出了整段话有负面情感。

然而,该文章却发现,保持模型其他参数不变,而仅修改注意力分布,使其主要部分在“was”和“myself”上,模型的输出结果不变化。此时要怎么解释呢?如果遵循过往推理,就得说“was”是个负面词汇,那便很可笑了。

NAACL 2019论文独特视角|纠正归因谬误:注意力没有解释模型

如情感分析任务一样,文本分类任务、问答任务等NLP任务也经常把注意力分布作为解释模型输出的依据。所有这类推断,都面临不同注意力分布导致相同结果的问题。最严重的问题在于,当注意力分布被调整得和原始分布完全相反时,即对抗注意力分布(adversarial attention),模型输出仍可能相同。

事实上,该文进行了如下实验,说明这种调整是简单可行的。

对抗注意力分布

在8个经典NLP任务上,论文尝试构建了对抗注意力分布,如下图所示。不同的颜色代表不同的分类类别。可见,在标签变化很小(纵轴)时,注意力分布可以大不一样(横轴),即对抗注意力分布和原始分布的JS距离可以超过0.6。且这些JS距离大的样本占比不少,这说明对抗注意力分布广泛存在。

NAACL 2019论文独特视角|纠正归因谬误:注意力没有解释模型

从映射的角度讲,注意力分布并不决定模型输出,即其他因素不变时,从注意力分布到输出空间的函数,往往不是双射,这一点符合直觉。关键的地方在于,过往在注意力分布上赋予了太多语义层面的信息,如分布概率高的地方说明对输出重要,于是常见一些以注意力分布值为温度的输入-输出热力图。对抗注意力分布的广泛存在,说明这一实践不像看上去的那样有理。

注意力分布与特征重要性的相关性

在神经网络模型的解释方面,除了注意力分布和输出间的热力图,还有一些工作,从传统机器学习引入特征重要性(feature importance),期望做出解释。比如,基于梯度(gradient)的重要性衡量标准,记为T g ,衡量的是所有其他因素不变,某一特征的微小扰动对输出的影响。又如,基于去除某特征(Leave one out)的衡量标准,记为 T loo ,衡量的是所有其他因素不变,去除某一特征对输出的影响。虽然这些衡量标准只关心单一特征,远远称不上完善的解释,但一定程度它们确实能提供明确的某一特征和模型输出的关系。

如下图所示,在八个常用数据集上, T looT g 之间的相关性,平均就比 T loo 和注意力分布间的相关性强(大约强0.2 T loo )。文中同样给出这一相关性也比 T g 和注意力分布间的相关性强。

NAACL 2019论文独特视角|纠正归因谬误:注意力没有解释模型

需要注意,特征重要性并非解释模型的黄金标准,且各种解释之间的相关性到底需要多大,并无一个标准。然而,注意力分布与各个衡量特征重要性的标准均表现出较弱的相关性,确实督促研究者重新审视过往认为注意力分布有解释能力的判断。

结语

注意力机制学出来的注意力分布并不能决定神经网络模型的输出。为找到解释神经网络的方法,我们需要另辟蹊径。另一个有趣的问题是,为什么不使用对抗学习时,通常学出的注意力分布表现得像能解释模型一样。这也有待探索。

参考文献:

1.Jain, Sarthak and Byron C. Wallace. “Attention is not Explanation.” ArXiv abs/1902.10186 (2019): n. pag.

2.Jiwei Li, Will Monroe, and Dan Jurafsky. 2016. Understanding neural networks through representation erasure. arXiv preprint arXiv:1612.08220.

学术头条已建立微信交流群,想进群的同学请加学术君微信:AMiner308,记得备注:名字+单位/学校噢!

NAACL 2019论文独特视角|纠正归因谬误:注意力没有解释模型

[关于转载]:本文为“学术头条”原创文章。转载仅限全文转载并保留文章标题及内容,不得删改、添加内容绕开原创保护,且文章开头必须注明:转自“SciTouTiao”微信公众号。谢谢您的合作。

NAACL 2019论文独特视角|纠正归因谬误:注意力没有解释模型

微信公众号菜单栏为大家设置了“ 论文推荐 ”和 “优质分享” 专栏,“北京讲座”移至“优质分享”专栏内,欢迎大家关注。

NAACL 2019论文独特视角|纠正归因谬误:注意力没有解释模型

NAACL 2019论文独特视角|纠正归因谬误:注意力没有解释模型

学术头条

发掘科技创新的原动力

您的转发就是我们最大的动力

点击阅读原文 访问AMiner官网


以上所述就是小编给大家介绍的《NAACL 2019论文独特视角|纠正归因谬误:注意力没有解释模型》,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对 码农网 的支持!

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

算法设计与分析

算法设计与分析

郑宗汉//郑晓明 / 清华大学 / 2011-7 / 45.00元

《算法设计与分析(第2版)》系统地介绍算法设计与分析的概念和方法,共4部分内容。第1部分介绍算法设计与分析的基本概念,结合穷举法、排序问题及其他一些算法,对算法的时间复杂性的概念及复杂性的分析方法作了较为详细的叙述;第2部分以算法设计技术为纲,从合并排序、堆排序、离散集合的union和find操作开始,进而介绍递归技术、分治法、贪婪法、动态规划、回溯法、分支与限界法和随机算法等算法设计技术及其复杂......一起来看看 《算法设计与分析》 这本书的介绍吧!

正则表达式在线测试
正则表达式在线测试

正则表达式在线测试

HSV CMYK 转换工具
HSV CMYK 转换工具

HSV CMYK互换工具