李宏毅机器学习课程笔记-11.1Explainable AI引言

Explainable AI是什么

我们希望,机器不仅要知道“是什么”还要知道“为什么”,或者说机器不仅要给出答案还要给出explanation

Explanation可以分为两类:

  1. Local Explanation

    假定在图片分类任务中有一张图片,要求机器说明为什么它认为这张图片是某个类别(比如“cat”)

  2. Global Explanation

    假定在图片分类任务中,要求机器说明它认为一个类别(比如“cat”)是什么样子,而非针对一张图片进行解释。

Explainable AI有什么用

在使用机器挑选简历时,我们需要知道机器为什么选择某份简历(性别?还是实力)。

在使用机器判定罪犯是否可以假释时,我们需要知道机器为什么判定是或否(实证?还是肤色)。

在使用机器判定是否给某人贷款时,我们需要知道机器为什么判定是或否。

通过Explainable AI,我们可以知道模型学到了什么从而进行模型诊断,对模型进行改进和调整。我们不仅只关注模型在数据集上的精确度,还需要进行模型诊断,因为有可能精确度很高但实际上机器什么都没学到。

Explainable AI是否有必要

李宏毅老师认为Explainable AI的目标并非完全理解模型是如何work的,而是为了让人感到comfortable。

因为深度学习是一个黑盒所以有些人认为深度学习不可信,这有些因噎废食。人脑等很多事物对现在的人类来讲都也还是黑盒,完全理解模型的work机理不是必要的,因为某些东西是黑盒就不使用它也不行。

Explainable AI其实就是为了使老板、客户、自己等感到comfortable,甚至对不同人也应该有不同的解释。

Interpretable VS Powerful

决策树既是interpretable又是powerful的,但当分支特别多的时候决策树的表现也会很差,这时可以使用Random Forest或者XGBoost,但它们虽然powerful但不interpretable。


Github(github.com):@chouxianyu

Github Pages(github.io):@臭咸鱼

知乎(zhihu.com):@臭咸鱼

博客园(cnblogs.com):@臭咸鱼

B站(bilibili.com):@绝版臭咸鱼

微信公众号:@臭咸鱼

转载请注明出处,欢迎讨论和交流!