🚼AI可解释性(Python语言版),带你深入了解AI的奥秘🚼

💪《AI可解释性(Python语言版)》是一本深入探讨人工智能可解释性的书籍,主要针对使用Python语言的读者。随着人工智能技术的快速发展,可解释性成为了越来越受关注的话题。这本书从理论和实践两个角度,全面介绍了AI可解释性的相关概念和技术,为读者提供了深入的理解和实用的指导。

👉首先,这本书对AI可解释性的概念进行了清晰的定义和阐述。作者详细介绍了可解释性的重要性以及与AI模型评估和调试的关联。通过阅读这本书,读者可以更好地理解可解释性在AI领域的应用和价值,以及它在提高AI系统的可靠性和信任度方面的作用。

🌟其次,这本书提供了丰富的实例和案例分析,帮助读者更好地理解AI可解释性的实际应用。作者选取了多个领域的实际场景,如医疗诊断、金融风险评估等,通过具体的案例展示了如何实现AI可解释性。这些案例不仅涵盖了多种不同类型的AI模型,而且具有很高的实用价值,为读者提供了宝贵的参考和启示。

⭕此外,这本书还深入探讨了AI可解释性的技术实现方法。作者详细介绍了多种可解释性技术,如局部可解释性、全局可解释性和可视化技术等,并给出了使用Python实现这些技术的代码示例。这些技术可以帮助读者更好地理解和改进AI模型的性能,提高模型的可靠性和鲁棒性。

👍《AI可解释性(Python语言版)》是一本非常值得一读的书籍。它不仅可以帮助读者深入理解AI可解释性的概念和技术,还可以为读者提供实用的指导和启示。如果你对人工智能的可解释性感兴趣,这本书将是一个很好的学习资源。同时,对于需要在实际项目中应用AI技术的专业人士来说,这本书也是非常实用的参考书籍。

👆请点击上面《AI可解释性(Python语言版)》了解更多详情!👆

书籍信息

书名: AI可解释性(Python语言版)
作者: [意] 列奥尼达·詹法纳(Leonida Gianfagna)/安东尼奥·迪·塞科(Antonio Di Cecco)
出版社: 清华大学出版社
译者: 郭涛
出版年: 2022-8
定价: 59.8
装帧: 平装
丛书: 清华社人工智能系列
ISBN: 9787302605690

AI可解释性(Python语言版)

内容简介

《AI可解释性(Python语言版)》提供了当前的概念和可用的技术的全面介绍,使机器学习系统更易于解释。所提出的方法可以应用于几乎所有当前机器学习模型:线性和逻辑回归、深度学习神经网络、自然语言处理和图像识别等等。
机器学习的进展是越来越多地使用人工智能体来执行以前由人类处理的关键任务(医疗、法律和金融等等)。虽然指导这些智能体设计的原则已被理解,但目前的大多数深度学习模型对人类的理解是“不透明的”。AI可解释性( Python语言描述)从理论和实践的角度填补了目前关于这个新兴主题文献空白,使读者能够快速地使用AI可解释性的工具和代码。

书籍目录

第1章 前景1
1.1AI可解释性示例2
1.1.1学习阶段3
1.1.2知识发现4
1.1.3可靠性和鲁棒性5
1.1.4三个示例的启示5
1.2ML和XAI6
1.2.1ML分类法8
1.2.2常见误解11
1.3对AI可解释性的需求12
1.4可解释性与可理解性:是否为表达相同事物的不同词语14
1.4.1从物质世界到人类15
1.4.2相关性不是因果性16
1.4.3那么可理解性和可解释性的区别是什么19
1.5使ML系统具备可解释性21
1.5.1XAI工作流程21
1.5.2全局视觉24
1.6我们真的需要ML模型的可解释性吗26
1.7小结28
参考文献29
第2章 AI可解释性:需求、机遇和挑战31
2.1人工介入32
2.1.1半人马座XAI系统32
2.1.2从“人工介入”的角度评估XAI35
2.2如何使ML模型具备可解释性37
2.2.1内在可解释性41
2.2.2事后可解释性44
2.2.3全局或局部可解释性46
2.3解释的性质49
2.4小结51
参考文献52
第3章 内在可解释性模型53
3.1损失函数54
3.2线性回归57
3.3逻辑回归67
3.4决策树78
3.5K最近邻算法(KNN)87
3.6小结90
参考文献91
第4章 XAI的模型不可知方法93
4.1全局可解释性:排序重要性与部分依赖图94
4.1.1根据排序重要性将特征排序95
4.1.2训练集中的排序重要性99
4.1.3部分依赖图100
4.1.4解释的性质104
4.2局部可解释性:XAI与Shapley加法解释106
4.2.1Shapley值:一种博弈论方法107
4.2.2SHAP的首次应用108
4.2.3解释的性质111
4.3KernelSHAP111
4.3.1Shapley公式112
4.3.2如何计算Shapley值112
4.3.3局部线性代理模型(LIME)113
4.3.4KernelSHAP是一种特殊的LIME115
4.4KernelSHAP与交互116
4.4.1纽约出租车情境116
4.4.2通过初步分析训练模型116
4.4.3用KernelShap使模型具备可解释性120
4.4.4特征交互120
4.5提升树的更快速SHAP122
4.5.1TreeShap的应用122
4.5.2提供解释123
4.6对SHAP的朴素评价125
4.7小结127
参考文献128
第5章 解释深度学习模型129
5.1不可知方法130
5.1.1对抗性特征130
5.1.2增强方法132
5.1.3将遮挡用作增强方法133
5.1.4将遮挡用作不可知XAI方法134
5.2神经网络(NN)138
5.2.1神经网络结构138
5.2.2为什么神经网络是深层网络(与浅层网络相对)140
5.2.3修正激活(和批量归一化)142
5.2.4显著图143
5.3打开深度网络144
5.3.1不同层解释144
5.3.2CAM(类激活图,ClassActivationMaps)和Grad-CAM144
5.3.3DeepShap/DeepLift146
5.4对显著性方法的评判150
5.4.1网络所见150
5.4.2可解释性逐层批量标准化151
5.5无监督方法152
5.5.1无监督降维152
5.5.2卷积滤波器降维154
5.5.3激活图集:如何区分炒锅与煎锅156
5.6小结158
参考文献159
第6章 用ML和XAI创造科学161
6.1数据时代的科学方法162
6.2因果关系阶梯166
6.3用ML和XAI发现物理概念172
6.3.1自动编码器的魔力173
6.3.2利用ML和XAI发现阻尼摆的物理特性177
6.3.3攀登因果关系阶梯181
6.4ML和XAI时代的科学182
6.5小结184
参考文献185
第7章 对抗性机器学习和可解释性187
7.1对抗性示例(AE)速成课程188
7.2使用对抗性示例运行XAI201
7.3用XAI抵御对抗性攻击205
7.4小结208
参考文献209
第8章 关于XAI可持续模型的建议211
8.1XAI“FilRouge”212
8.2XAI和GDPR214
8.3结语220
8.4小结224
参考文献224
附录 F.A.S.T.XAI认证227

版权声明:
作者:admin
链接:https://manboo.net/155.html
来源:学习笔记
文章版权归作者所有,未经允许请勿转载。

THE END
分享
二维码
QQ群
< <上一篇
下一篇>>
文章目录
关闭
目 录