人工智能算法的可解释性方法研究

来源:数学与人工智能

摘要

     以深度学习为代表的人工智能技术在信息领域的应用,极大地提高了信息的利用效率和挖掘价值,深刻的影响了各领域的业务形态,同时也引发了监管部门和用户对这一新技术运用中出现的 “算法黑箱”问题关切和疑虑。如何对相关算法、模型、及其给出的结果进行合理的解释成为数据科学家亟需解决的问题。

一、为什么智能算法需要可解释

1.来自人工智能的挑战

      自AlphaGo战胜人类顶尖围棋手之后,人工智能这一概念真正成为了社会各界关注的焦点,也为各国政府所重视。一方面可以给我们带来诸多便利,比如可能为我们提供医疗、法律、金融等方面的建议或决策,也可能直接操控汽车、无人机,甚至大规模杀伤性武器[1]。但另一方面,它也被用来“做坏事”甚至危害人类。如某些网站利用人工智能算法进行“大数据杀熟”,2017年也发生了全国首例利用人工智能技术进行网络诈骗的案件。2015年德国大众公司甚至发生了机器人“杀人事件”[2]。欧盟已经要求所有算法解释其输出原理[3],这意味着不可解释的算法模型将成为非法使用[3,4]。

2.可解释是人工智能发展的必然选择

      在时下热议的人工智能相关伦理、算法歧视、算法正确性、安全性等问题中,有一个问题被时常提起,即以深度学习算法为代表的人工智能算法的可解释性问题。人类理性的发展历程使我们相信,如果一个判断或决策是可以被解释的,我们将更容易了解其优点与不足,更容易评估其风险,知道其在多大程度上、在怎样的场合中可以被信赖,以及我们可以从哪些方面对其进行不断改善,以尽量增进共识、减少风险,推动相应领域的不断发展。这样的思维范式或许是诞生在人工智能时代之前的稍显过时的思维模式。或许随着科技和社会的发展,未来会演化出新的思维范式,但目前这仍然是我们最成熟、最具共识、最可信赖的思维模式 [1]。

二、可解释性方法概述

      17年ICML会议上来自谷歌的科学家给出一个关于可解释性的定义是“Interpretation is the process of giving explanations to Human”[5]。许多模型及应用不可解释性的原因主要来源于对问题和任务了解得还不够充分。那么只要在使用模型的过程中,只要是能够提供给我们关于数据或模型的可以理解的信息,有助于我们更充分的发现知识、理解和解决问题的方法,那么都可以归类为可解释性方法。同时,这篇文章将可解释性方法按进行的过程划分为如下三类:在建模之前的可解释性方法、建立本身具备可解释性的模型和建模后使用可解释性方法对模型作出解释,下面对这三大类方法分别作介绍。

三、建模前:在建模之前的可解释性方法

       在建模之前的可解释性方法主要涉及一些数据预处理或数据展示的方法机器学习解决的是从数据中发现知识和规律的问题,如果我们对想要处理的数据特征所知甚少,指望对所要解决的问题本身有很好的理解是不现实的,在建模之前的可解释性方法的关键在于帮助我们迅速而全面地了解数据分布的特征,从而帮助我们考虑在建模过程中可能面临的问题并选择一种最合理的模型来逼近问题所能达到的最优解。

      数据可视化就是一类非常重要的建模前可解释性方法。很多对数据挖掘稍微有些了解的人可能会认为数据可视化是数据挖掘工作的最后一步,大概就是通过设计一些好看又唬人的图表或来展示你的分析挖掘成果。但实际上真正要研究一个数据问题之前,通过建立一系列方方面面的可视化方法来建立我们对数据的直观理解是非常必须的,特别是当数据量非常大或者数据维度非常高的时候,比如一些时空高维数据,如果可以建立一些一些交互式的可视化方法将会极大地帮助我们从各个层次角度理解数据的分布。


四、建模中:建立本身具备可解释性的模型

       建立本身具备可解释性的模型是最关键的一类可解释性方法,同样也是一类要求和限定很高的方法,具备可解释性的模型大概可以分为以下几种模型[6]。

      基于规则的模型,比如我们提到的非常经典的决策树模型。这类模型中任何的一个决策都可以对应到一个逻辑规则表示。但当规则表示过多或者原始的特征本身就不是特别好解释的时候,基于规则的方法有时候也不太适用。

      基于单个特征的方法主要是一些非常经典的回归模型,比如线性回归、逻辑回归、广义线性回归、广义加性模型等。这类模型除了结构比较简单之外,更重要的是回归模型及其一些变种拥有非常坚实的统计学基础,上百年来无数统计学家探讨了在各种不同情况下的模型参数估计与修正、假设检验、边界条件等等问题,使得他们在各种不同情况下都能使具有有非常好的可解释性。

     基于实例的方法主要是通过一些代表性的样本来解释聚类/分类结果的方法。比如可以为每一个聚类簇中选出代表性样例和重要的子空间。

     基于稀疏性的方法主要是利用信息的稀疏性特质,将模型尽可能地简化表示。比如LDA方法,根据层次性的单词信息形成了层次性的主题表达,这样一些小的主题就可以被更泛化的主题所概括,从而可以使我们更容易理解特定主题所代表的含义。

     基于单调性的方法在很多机器学习问题中,有一些输入和输出之间存在正相关/负相关关系,如果在模型训练中我们可以找出这种单调性的关系就可以让模型具有更高的可解释性。比如医生对患特定疾病的概率的估计主要由一些跟该疾病相关联的高风险因素决定,找出单调性关系就可以帮助我们识别这些高风险因素。

五、建模后:使用可解释性方法对模型作出解释

      建模后的可解释性方法主要是针对具有黑箱性质的深度学习模型而言的, 深度学习的黑箱性主要来源于其高度非线性性质,每个神经元都是由上一层的线性组合再加上一个非线性函数的得到,人们无法像理解线性回归的参数那样通过统计学基础假设来理解神经网络中的参数含义及其重要程度、波动范围。但实际上我们是知道这些参数的具体值以及整个训练过程的,所以神经网络模型本身其实并不是一个黑箱,其黑箱性在于我们没办法用人类可以理解的方式理解模型的具体含义和行为,而神经网络的一个非常好的性质在于神经元的分层组合形式,这让我们可以用物质组成的视角来理解神经网络的运作方式。主要分为以下几类的工作:隐层分析方法、模拟/代理模型、敏感性分析方法[7,8,9]。

隐层分析方法:该方法通过对隐层运用一些可视化方法来将其转化成人类可以理解的有实际含义的图像以展示神经网络中每层都学到的概念。我们都知道典型的CNN模型的一个完整卷积过程是由卷积-激活-池化(pooling)三个步骤组成的,也可以通过反池化-反激活-反卷积这样的一个逆过程,并借助特征可视化帮助我们理解CNN的每一层究竟学到了什么东西[7]。此外,文献[]提出了一种网络切割的方法以提取CNN的语义概念[8]。

模拟/代理模型:该类方法是针对黑箱模型,使用蒸馏(Model distillation)技术得到新的可解释模型,训练这两个模型使他们的结果近似。但这类算法也存在很大的局限性,比如模型本身并不能被“蒸馏”,或者原始模型与蒸馏后的模型差异很大导致可解释性模型的意义不再存在。

敏感性分析方法:用于定量描述模型输入变量对输出变量的重要性程度的方法。是令每个属性在可能的范围变动,研究和预测这些属性的变化对模型输出值的影响程度。我们将影响程度的大小称为该属性的敏感性系数,敏感性系数越大,就说明属性对模型输出的影响越大。一般来讲对于神经网络的敏感性分析方法可以分为变量敏感性分析、样本敏感性分析两种,变量敏感性分析用来检验输入属性变量对模型的影响程度,样本敏感性分析用来研究具体样本对模型的重要程度,也是敏感性分析研究的一个新方向。在金融领域,将敏感性分析与局部特征探索方法(主要是树类模型),能够有效解决金融领域普遍存在先验知识不足问题[12]。

六、结束语

     《火的礼物:人类与计算技术的终极博弈》一书中提到“火使我们的生活更加舒适、健康和愉快。而它同时也拥有巨大的破坏力,有可能因为意外,也可能是故意纵火”,对于深度学习亦是如此。期待通过算法研究者、政府、法律等多方面的共同努力,我们可以更好地掌握人工智能算法,来帮助我们解决各种难题,建设更加美好的社会。


参考文献

[1] 打破人工智能算法黑箱.张吉豫.https://36kr.com/p/5123323

[2] 预言成真!人工智能已参与犯罪危害人类社会!如何加紧遏制新民晚报https://baijiahao.baidu.com/s?id=1627686939432654294&wfr=spider&for=pc

[3] 人工智能的算法黑箱与数据正义 https://blog.csdn.net/UFv59to8/article/details/79947730

[4] 算法黑箱,是潘多拉的盒子?算法与信息(之二). http://www.sohu.com/a/323823906_550962

[5] Interpretable Machine Learning: The fuss, the concrete and the questions. Been Kim. Google Brain. ICML 2017 Tutorial.

[6] Interpretable Machine Learning. https://christophm.github.io/interpretable-ml-book/index.html

[7]深度学习的可解释性研究(一) 让模型具备说人话的能力. https://zhuanlan.zhihu.com/p/37223341.

[8] 深度学习的可解释性研究(二)不如打开箱子看一看. https://zhuanlan.zhihu.com/p/38151985

[9] 深度学习的可解释性研究(三)是谁在撩动琴弦. https://zhuanlan.zhihu.com/p/38568075

[10]Zeiler M D, Fergus R . Visualizing and Understanding Convolutional Networks[M]// Computer Vision ECCV 2014. Springer.

[11] David Bau, Bolei Zhou, Aditya Khosla, et al. Network Disp: Quantifying Interpretability of Deep Visual Representations[J]. 2017:3319-3327.

[12] 深度学习的技术在金融行业中的应用. https://blog.csdn.net/sinat_22510827/article/details/9029431

未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)云脑研究计划,构建互联网(城市)云脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。

  如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”

人工智能学家
关注 关注
  • 2
    点赞
  • 33
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
个性化推荐的可解释性研究,神经网络机器学习的可解释性研究
04-07
神经网络、机器学习的可解释性研究,个性化推荐的可解释性研究
机器学习6种模型可解释性方法汇总,你最常用哪一种?
Python学习与数据挖掘
11-20 8627
目前很多机器学习模型可以做出非常好的预测,但是它们并不能很好地解释他们是如何进行预测的,很多数据科学家都很难知晓为什么该算法会得到这样的预测结果,这其实是非常致命的。如果我们无法知道某个算法是如何进行预测,很难基于模型知道业务发展。 本文介绍目前常见的几种可以提高机器学习模型的可解释性的技术,包括它们的相对优点和缺点。我们将其分为下面几种: Partial Dependence Plot (PDP); Individual Conditional Expectation (ICE) Permut
解释性人工智能(XAI):揭秘人工智能的“黑匣子”
走向CTO的路上...
05-04 1082
*可解释性人工智能(XAI)**旨在提高人工智能系统的透明度和可理解性,使人们能够更好地理解 AI 的决策过程和原理。随着 AI 技术的广泛应用,XAI 成为一个备受关注的重要领域。它不仅有助于建立人们对 AI 的信任,还可以帮助解决 AI 伦理和偏见等问题。XAI 的重要性体现在以下几个方面:复杂的 AI 模型往往被视为“黑匣子”,其决策过程难以理解。XAI 可以帮助人们理解 AI 的决策依据,从而建立对 AI 的信任。AI 模型在训练过程中可能会受到数据偏见的影响,导致不公平的决策结果。
未来人工智能新机遇在哪里
slivegogo的博客
02-25 199
  在与机构交谈中,谈及人工智能未来的机会,更多投资人会专注于目前的卡点,认为解决卡点就是未来的机会。而现在大家讨论最多的一个问题是人工智能的可解释性。   2021年11月,联合国UNESCO通过的首个全球性AI伦理协议《人工智能伦理建议书》(Recommendation on the ethics of artificial intelligence)中,提出十大AI原则,其中就包括“透明性与可解释性”。   现在很多AI应用其背后的算法的工作方式和算法训练数据是未知的,这种未知到了社会运转中非常关键,
算法的可解释性
TommyLi_YanLi的博客
07-04 1476
算法的可解释性
金融风控实战——可解释人工智能技术
Grateful_Dead424的博客
03-07 2650
可解释的基本概念 机器学习/人工智能解释性(简称 XAI)正变得越来越流行。随着算法在金融、医疗保健和保险等行业的高风险决策中变得越来越普遍,对可解释性的需求持续增长。关于“可解释性”的精确定义,目前工业界和学术界仍未达成一个统一的标准,但是一个比较简单直接的定义为:“可解释性”是帮助 人工智能技术的的决策和行为能够被人类理解的一系列方法。 可解释人工智能技术中的大部分概念和我们熟悉的人工智能技术中的概念是完全相同的,例如数据集,样本,特征,模型等等,这里需要额外说明两个在可解释人工智能技术中相对比较独特
人工智能算法优化与可解释性.pptx
最新发布
06-02
解决方案,研究报告,行业报告
可解释人工智能XAI:算法到应用
10-13
能够解释机器学习模型的预测在医疗诊断或自主系统等关键应用中是很重要...然而,我们不希望如此高的准确性以牺牲可解释性为代价。结果,可解释AI (XAI)领域出现了,并产生了一系列能够解释复杂和多样化的ML模型的方法
人工智能算法的可靠性和可解释性.pptx
06-02
解决方案,研究报告,行业报告
解释性数据挖掘算法的开发.pptx
05-27
解决方案,研究报告,行业报告
面向可解释性人工智能与大数据的模糊系统发展展望
01-20
因此,非常有必要研究一种基于模糊系统的可解释性强的人工智能算法。结合深度神经网络和模糊系统两者的优点,研究深度模糊系统及其算法,将有可能解决高维大数据问题。主要对模糊系统的发展历程与研究进展分别进行...
深度学习可解释性研究进展
08-27
近年来,机器学习发展迅速,尤其是深度学习在图像、声音、自然语言处理等领域取得卓越成效.机器学习算法的表示能力大幅度提高,但是伴随着模型复杂度的增加,机器学习算法的可解释性越差,至今,机器学习的可解释性依旧是个难题.
详解深度学习的可解释性研究(上篇)
热门推荐
CSDN人工智能头条
06-23 2万+
作者 | 王小贱(被编程耽误的设计师,热爱产品的数据民工)来源 | BIGSCity知乎专栏《深度学习的可解释性研究》系列文章希望能用尽可能浅显的语言带领大家了解可解释性...
人工智能系统的可解释性研究:挑战与解决方案
禅与计算机程序设计艺术
07-04 3668
作者:禅与计算机程序设计艺术 《人工智能系统的可解释性研究:挑战与解决方案》 引言 1.1. 背景介绍 人工智能(AI)在近几年的快速发展,已经在许多领域取得了显著的成果。然而,这些成果在很大程度上取决于其背后的黑
人工智能-机器学习:机器学习的可解释性(Explainable Machine Learning)
u013250861的博客
12-18 2521
什么是机器学习的可解释性? - 可解释性(explainability)有大量的近义词,比如可理解 (understandable), 可诠释 (interpretable), 透明(transparent), 可靠 (robust), 公平 (fair), 明确(explicit),忠实(faithful), 负责(responsible)。这些词与可解释性 (explainable) 之间到底存在什么样的关系? - 最近有篇来自以色列的19页长文 [Explainability in Human-Age
人工智能解释性分析(一)导论(初稿)
weixin_48878618的博客
08-04 604
人工智能教人类学习,德国一个激光加工企业博士,发现利用激光加工过程中,有些参数会发生变化,这会影响加工质量,而想要得到这些参数,必须停机才可以,但停机的成本又太高,于是他用神经网络训练了可以实时预测参数的模型,准确率很高,然后他用可解释性分析,可视化的分析了如何获得这个参数,工人根据可视化过程去学习推算参数,竟然真的提高了很多,这个方法很简单,但这个应用场景下却从未有人成果尝试,于是这个博士,横扫了改领域的论文。:就是得到卷积核参数,和其对应的特征图,卷积核又分浅层,中层,高层,不同层提取的特征不同。
解释性机器学习( Explainable Artificial Intelligence (XAI) )文献阅读记录(1.1)
FelicityXu的博客
12-20 7244
Explainable Artificial Intelligence (XAI): Concepts, taxonomies,opportunities and challenges toward responsible AI ver 1.0 机翻+稍作修改
人工智能,你欠我们一个解释
人工智能观察
09-20 2460
智造观点尽管人工智能发展迅速,但还是没能获得所有人的信任,原因之一就在于它在做出决策方面缺乏可解释性。正是因为人们无法理解人工智能是如何做到这一切的,所以它在法律、医疗健...
解释性人工智能过不去的一道坎
人机与认知实验室
05-15 908
如今,可解释性正在成为AI一道过不去的坎。去年,欧盟出台《人工智能道德准则》,明确提出AI发展方向应该是“可信赖的”,包含安全、隐私和透明、可解释等方面。人工智能应用以输出决策判断为目标...
对于可信人工智能的定义,科技部高技术研究发展中心研究员嵇智源作出了通俗解释:可信AI,就是确保AI的公平性、可解释性、健壮性和透明性,确保算法可被人信任。为什么可信人工智能在当下值得被讨论?下一代可信人工智能的机遇、挑战分别是什么?从技术层面谈谈如何构建可信人工智能
06-09
可信人工智能是指人工智能系统应该具备公平性、可解释性、健壮性和透明性等特点,确保其算法可被人信任。当前,可信人工智能在当下值得被讨论,主要原因有以下几点: 1. 数据隐私问题:随着大数据时代的到来,数据...

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
写文章

热门文章

  • 详解5G的六大关键技术 73058
  • 权威发布:新一代人工智能发展白皮书(2017) 72276
  • 史上最完整的人工智能书单大全,学习AI的请收藏好 64792
  • 荐读:五月最值得阅读的15篇人工智能文章 51178
  • 全球五十家知名传感器制造商分布盘点、特点分析 49485

最新评论

  • 哥德尔:伟大的数学家与饱受精神疾病折磨的患者

    单字胜: 看完全文,无言以对,之前不了解,只觉得哥德尔是个天才,难以想象他遭受精神疾病的这些经历

  • 这是关于物理学的最强科普

    World_Science_Theory: 有实力,不过您似乎忘了最前沿的:凝聚态、高能、天体物理?

  • 人工智能的现状与未来(附PPT)

    程小程: 在哪里能下载啊???

  • 【精彩文章】数学家论数学——数学的本质

    iw1210: !!数学的本质 !! 数学体系先天就有缺陷!!! 许多痴迷的数学家们都患有脱离实际幻想症!这帮家伙智慧低下、智力单一,没有逻辑思维,没有大局观,整天坐在井里看天,自我陶醉,胡乱假设,胡乱猜想,胡乱定义……搞出来的东西毫无逻辑、自相矛盾、破绽百出、悖论重重!这帮低智慧单智力家伙,整天呆在家里自作聪明意淫出各种花样题目,犹如穿开裆裤的孩子玩过家家、捉迷藏、走迷宫游戏,毫无意义,毫无价值,浪费时间!! 有人说手机电脑等科技产品大部分功劳是数学,我来告诉你真相:人类社会的所有文明和科技,数学的功劳不到0.01%,99.99%的功劳是逻辑学及其他。逻辑学是单独的学科,不属于数学,数学是它码的没有逻辑最不讲逻辑的傻逼学科!!数学的功能最它码简单,就是量化,如果把人类社会的所有发展成果比作高楼大厦,数学就是一个工量具卷尺,它码的不切实际盲目夸大数学功劳,就如同说“建设高楼大厦主要功劳是卷尺”,岂不荒唐可笑!! 在哲学面前,数学连个屁都不是!!!

  • ChatGPT被爆重大漏洞!3.5用户可以免费白嫖4.0 Plus!

    云外星沉月落: 已经不行了

您愿意向朋友推荐“博客详情页”吗?

  • 强烈不推荐
  • 不推荐
  • 一般般
  • 推荐
  • 强烈推荐
提交

最新文章

  • LLM的「母语」是什么?
  • 每个人的脑袋都擅长数学吗?学不明白是咋回事?(发自灵魂的追问)
  • 英伟达 Jim Fan:具身智能的难点不是硬件,而是「Foundation Agent」
2024
06月 11篇
05月 89篇
04月 76篇
03月 86篇
02月 63篇
01月 72篇
2023年1043篇
2022年864篇
2021年908篇
2020年879篇
2019年1132篇
2018年1301篇
2017年402篇

目录

目录

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43元 前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值

深圳SEO优化公司海南网站建设推荐雅安网站推广多少钱昭通如何制作网站南充网站改版报价泉州设计公司网站报价贵阳网站优化按天计费价格丹东模板制作价格衢州网站关键词优化报价淮北优秀网站设计多少钱宝安百度竞价哪家好张家口百姓网标王推广报价观澜如何制作网站哪家好湘西网站搜索优化报价随州网站推广方案推荐承德百度爱采购报价鹤岗阿里店铺运营海东网站推广多少钱泰安网站推广多少钱天津网站改版公司汕头设计公司网站报价丹竹头网络广告推广多少钱丹东营销网站推荐张家界网站开发公司江门网站优化按天计费公司湛江外贸网站建设推荐怒江阿里店铺运营推荐宁波网站建设资阳设计公司网站多少钱杭州seo网站推广哪家好甘孜seo优化歼20紧急升空逼退外机英媒称团队夜以继日筹划王妃复出草木蔓发 春山在望成都发生巨响 当地回应60岁老人炒菠菜未焯水致肾病恶化男子涉嫌走私被判11年却一天牢没坐劳斯莱斯右转逼停直行车网传落水者说“没让你救”系谣言广东通报13岁男孩性侵女童不予立案贵州小伙回应在美国卖三蹦子火了淀粉肠小王子日销售额涨超10倍有个姐真把千机伞做出来了近3万元金手镯仅含足金十克呼北高速交通事故已致14人死亡杨洋拄拐现身医院国产伟哥去年销售近13亿男子给前妻转账 现任妻子起诉要回新基金只募集到26元还是员工自购男孩疑遭霸凌 家长讨说法被踢出群充个话费竟沦为间接洗钱工具新的一天从800个哈欠开始单亲妈妈陷入热恋 14岁儿子报警#春分立蛋大挑战#中国投资客涌入日本东京买房两大学生合买彩票中奖一人不认账新加坡主帅:唯一目标击败中国队月嫂回应掌掴婴儿是在赶虫子19岁小伙救下5人后溺亡 多方发声清明节放假3天调休1天张家界的山上“长”满了韩国人?开封王婆为何火了主播靠辱骂母亲走红被批捕封号代拍被何赛飞拿着魔杖追着打阿根廷将发行1万与2万面值的纸币库克现身上海为江西彩礼“减负”的“试婚人”因自嘲式简历走红的教授更新简介殡仪馆花卉高于市场价3倍还重复用网友称在豆瓣酱里吃出老鼠头315晚会后胖东来又人满为患了网友建议重庆地铁不准乘客携带菜筐特朗普谈“凯特王妃P图照”罗斯否认插足凯特王妃婚姻青海通报栏杆断裂小学生跌落住进ICU恒大被罚41.75亿到底怎么缴湖南一县政协主席疑涉刑案被控制茶百道就改标签日期致歉王树国3次鞠躬告别西交大师生张立群任西安交通大学校长杨倩无缘巴黎奥运

深圳SEO优化公司 XML地图 TXT地图 虚拟主机 SEO 网站制作 网站优化