xai 主要解决以下问题:对于使用者而言某些机器学习模型如同黑盒一般,给它一个输入,决策出一个结果。比如大部分深度学习的模型,没人能确切知道它决策的依据以及决策是否可靠。如图 1 的 output 所示,为一般网络给出的决策,缺乏可解释性的结果让使用者感到困惑,严重限制了其在现实任务中的广泛应用。
图 1 如今的深度学习 [1]
所以为了提高机器学习模型的可解释性和透明性,使用户和决策模型之间建立信任关系,近年来学术界进行了广泛和深入的研究并提出了可解释的机器学习模型。如图 2,模型在决策的同时给出相应的解释,以获得用户的信任和理解。
图 2 可解释的机器学习 [1]
对于机器学习模型来说,我们常常会提到2个概念:模型准确性(accuracy)和模型复杂度(complexity)。模型的复杂度与准确性相关,又与模型的可解释性相对立。因此我们希望找到一种模型如图 3 所示,具有可解释性的同时尽可能保证模型的准确性和复杂度。
数字LCD接口与模拟LCD接口的对比分析
功率放大AD811模块详解
电子苍蝇拍的工作原理
用Voltage-controlled Voltage Source仿真放大器
全球电子半导体营业收入2013年将改善
浅谈机器学习模型的可解释性和透明性
华为P40 Pro Premium渲染图曝光搭载了1颗微距相机摄像头
3D打印技术会给我们的生活带来哪些便捷
如何选用线性稳压器和开关稳压器
华为Mate20X拆机图解
德州仪器发布5美元的ARM Cortex A8处理器
由TL494构成的恒流闭环控制电路的设计与实现
单独集成电路的局部滤波
漏电保护器和空气开关是什么,具有什么区别
魅族16s或将搭载骁龙855并支持超声波指纹识别和解锁支付
铭瑄联合慧荣科技正式发布复仇者PCIe M.2系列SSD
怎样将iPhone的屏幕投至MacBook上
美国公布对大疆的337调查结果_337调查是什么意思
疯了?内存价格降至冰点,美光却加紧扩大产能!
拼多多回应APP远程删除照片:将对产品做改进