一些大佬的可解释人工智能的优质资料整理及总结(更新中)

发布时间:2024年01月24日

针对Transformer系列模型的模型可解释性分析:?

1.关于Transformer可解释性的介绍:?Transformer模型的可解释性

内容总结:?

2. 关于VIT模型的可解释性研究介绍:??Vision Transformer的可解释性?

内容总结:?

3. 关于Human-in-the-loop的可解释性算法介绍:深度学习的可解释性 XAI-6-人机交互类解释(Human-in-the-loop Explanation)

?内容总结:?

4.关于可解释深度学习入门综述:

?深度学习的可解释性 XAI-1-综述

?深度学习的可解释性 XAI-2 面向测试集数据的解释

深度学习的可解释性 XAI-4 面向模型自身的解释?

内容总结:

? ?1.可解释机器学习算法的分类:Intrinsic / post-hoc,?Global / local explainability, Attributing to training sample / test sample;

? ?2. 什么是可解释性:通过观察intrinsically explainable model的特点,如线性模型:线性模型的解释,各个自变量就是生成因变量的依据,自变量的系数就是各个自变量影响力的大小;决策树:模型一看就懂,先根据跟节点做判断,最后再根据叶节点做判断。其它建议看链接的原文。

? ?3. 为什么人工智能模型需要可解释性:一个相对容易理解的系统更容易被控制;可解释性作为一个工具,可以给很多应用提供帮助(例如在医疗和法律领域提高信任度;在Fairness和Robustness这2个领域中帮助选择正确的特征。);可解释性是客户的权力(一些地区的法律规定)

? ?4. 什么是好的可解释模型(可解释模型的评价)

? ?(1)Soundness准确性、正确性):确定事件的真实原因,大部分可解释性算法满足的都是这个,比如常见的saliency map;

? ?(2)Relevance(相关性):与最终目标保持一致,需要根据解释目标进行可解释优化,实际应用中,这个因素考虑得更多。因为这类特点将客户的需求考虑进来了,所以就不能只给客户一个类似上面的图。比如有时候需要给一个具体的文字解释,有时候需提升客户使用你AI产品的信心等等;

? (3)其它的评价指标。如,简单(尽可能使用更少的特征)、通用(可解释性算法能适用于更多的应用场景)等等? ? ? ? ? ? ? ? ? ?

4. 国外图宾根大学的可解释性研究课程:机器学习可解释性研究?

内容总结: 包含了机器学习模型泛化性,不确定性,可解释性研究的课件内容,适合后期拓宽研究视野查看。里面推荐了很多相关的论文,其中关于可解释性的论文我已经全部下载完成。

文章来源:https://blog.csdn.net/qq_43449643/article/details/135822888
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。