在本篇论文中,来自 UCLA 的研究人员就目前有关理解神经网络表征和用可解释/分离式表征学习神经网络的研究进行了一次调查。
本文将研究范围圈定到以下六个研究方向:
综上,CNN 表征可视化是探讨网络表征的最直接的方法。网络可视化还为许多诊断 CNN 表征的方法提供了技术基础。预训练的 CNN 的特征的分离式表征以及对可解释的网络表征的学习给最先进的算法带来了更大的挑战。
论文:Visual Interpretability for Deep Learning: a Survey
论文地址:https://arxiv.org/abs/1802.00614
摘要:本篇论文回顾了目前有关理解神经网络表征和用可解释/分离式中间层表征学习神经网络的新兴方向的研究。尽管深度神经网络在不同的任务中取得了不俗的表现,但是它的可解释性一直是深度神经网络的阿克琉斯之踵。当前,深度神经网络获得了很高的鉴别力,同时它也想黑匣子一样难以解释。我们相信良好的模型可解释性或许会帮助研究人员突破深度学习的瓶颈,例如,从很少的注释中学习,通过人机交互进行语义级别的学习,以及 debug 网络的语义表征。在本文中,我们重点关注卷积神经网络(CNN),并重新审视 CNN 表征的可视化,预训练 CNN 表征的诊断方法,预训练 CNN 表征的分离方法,CNN 的分离式表征学习,以及基于模型可解释性的从中到尾的学习。最后,我们将探讨可解释的人工智能的发展趋势。
2 CNN 表征的可视化
将 CNN 滤波器可视化是探索隐藏在神经元内的视觉模式的最直接方式。网络可视化已经有了各种各样的可视化方法。
3 CNN 表征的诊断方法
一些方法超出了 CNN 的可视化和 CNN 表示诊断的范畴,以获得对 CNN 中编码的特征的启发式理解。我们将所有相关研究大致分为以下五个方面。
图 1 :CNN 中的偏置的表征 [Zhang et al., 2018b]
4 将 CNN 表征解构成说明图和决策树
图 2 :不同的输入图像获得的滤波器的 Feature maps [Zhang et al., 2018a]。为了可视化 feature map,该方法将 feature map 中激活单元的感受野映射到图像平面。
图 3 :说明图 [Zhang et al., 2018a]。说明图表示隐藏在 CNN 的卷积层中的知识层次。预训练的 CNN 中的每个滤波器可以由对象的不同部分得到。
图 5:模式热点图 [Zhang et al., 2018a]。热点图将具有最高推断得分的说明图的第 L 层中排名前 50%的模式的空间分布可视化。
图 7:语义级 CNN 预测解释的决策树 [Zhang et al., 2018c]。CNN 学习在顶层的卷积层中运用分离式表征进行目标分类,其中每个过滤器代表一个特定的对象部分。决策树以由粗到精的方式编码隐藏在 CNN 全连接层内的各种决策模式。给定一张输入图像,决策树推断出一个解析树(红线)来定量分析 CNN 预测的基本原理,即物体的哪些部分(或滤波器)用于预测以及该部分(或滤波器)对预测有多大贡献。
5 用可解释/分离式表征学习神经网络
图 10:上层卷积层的可解释滤波器的可视化图 [Zhang et al., 2017c]。我们使用 [Zhou et al., 2015] 来估计 feature map 中激活感受野的图像分辨率以可视化过滤器的语义信息。可解释的 CNN 通常在其顶部的卷积层中对动物的头部模式进行编码以便于分类。
6 网络可解释性的评估标准
图 13:与或图在预训练的 CNN 上衍生为语义分支 [Zhang et al., 2017a]。AOG 将特定的 CNN 单元与某些图像区域相关联。红线表示解析图。
7 由中到尾学习的网络可解释性
图 14:QA 过程的图示 [Zhang et al., 2017a]。(上)该方法选择不可解释的对象进行分类。(下)每个目标对象的问题。
原文:https://mp.weixin.qq.com/s/33VQNVvb7JGlk10Jc3mmeg
既然来了,说些什么?