如果医学ai算法表现良好,为什么要让众所周知的黑匣子破坏人们对它的信心?
或者,如5月27日发表在《放射学:人工智能》上的一篇观点文章中所问的那样:“为什么我们不应该简单地信任该模型而忽略为什么做出特定决定?”
当前的问题是可解释性,即人的大脑可以理解ai算法结论背后的逻辑的程度。
宾夕法尼亚大学放射学系的despina kontos博士和aimilia gastounioti博士都是针对同一天在同一期刊上发表的发现而写的,他们都认为这种可解释性可能不是必不可少的,但无疑可以加快ai的发展。纳入常规临床实践。
作者指出,对错误的决策或预测的一种可理解的解释“可以帮助人们理解错误的原因,并为如何解决该错误提供指导。”
同时,对正确决策或预测的解释“有助于验证特定结论的逻辑,确保因果关系得到理解,并减轻了对混淆或偏见的潜在怀疑。”
无论哪种情况,“与“黑匣子”相比,放射科医生和患者都更容易相信一个能够解释其决策(包括其失败)的模型。”
kontos和gastounioti对同一天在同一期刊上发表的评论结果进行了评论。
由瑞士伯尔尼大学的毛里西奥·雷耶斯(mauricio reyes)和同事们提出的研究结果是从放射科医生对当前主题的观点中得出的,并包括以下三个基本要点:
放射人工智能(ai)系统通常具有许多计算层,这可能使人类难以解释系统的输出。
正在开发可解释性方法,以便可以通过使用可视化,反例或语义来解释ai系统。
通过增强其可解释性,可以更好地验证,信任并在放射医学实践中采用ai系统。
Intersil双协议收发器数据率达20Mbps,可用于工业
为什么要混合电动化? 三相电机驱动架构
广汽本田e:NP1极湃1获中国生态汽车白金牌
Qualcomm XR企业计划推动XR在多个垂直行业的应用
显卡芯片
为什么要让众所周知的黑匣子破坏人们对它的信心?
锁存器74ls373应用电路图大全(四款抢答器/单片机接口/信号发生器电路)
安装地下车库CO监测系统必要吗
PR工具中blockage的定义、分类及其作用
安防监控系统的发展与信息存储
基于FPGA和SC1462的高速预检仪表应用,可替代ADS8509
中国动力电池行业未来将朝何方向发展?
新兴的机器人建筑,它的灵感来自于何方
为确保高质量拍摄功效,摄像模组PCBA清洗需达到哪些要求
TPCAST推出Air企业版 第二代无线VR解决方案
诺基亚6再度开卖:京东独家发售
彩虹-4、彩虹-5无人机已经具备了在“世界屋脊”执行飞行任务的能力
e络盟在全球范围内推出新一代Pi Desktop
ghz是什么意思
基于近红外光谱分析技术实现谷物品质快速检测仪的设计