随着ai的使用变得越来越普遍,仅“尽力而为”的数据科学家和组织就还不够。随着ai倡导者的兴起,负责任的ai将成为人们的期望和标准。
近年来,数据和人工智能已在众多行业中广泛使用,以告知和塑造从医疗保健,零售到银行和保险的战略和服务。最近,在追踪冠状病毒的斗争中,ai脱颖而出。
但是,随着数字化生成数据量的增加,以及由ai支持的自动决策的需求,对于企业和政府而言,都对ai决策算法背后的推理提出了新的挑战。
随着ai将决策远离那些影响决策的人,决策似乎变得更加残酷,甚至可能变得粗心。对于组织而言,引用数据和算法作为不受欢迎的决策的理由并不少见,当受人尊敬的领导者犯错时,这可能会引起关注。
除了可能做出错误的决策外,还存在ai偏见的问题。结果,引入了新法规来保护消费者权益并密切关注ai的发展。
负责任的ai的支柱
组织现在需要实施强大的ai。为此,他们必须以负责任的ai的三大支柱来加强和制定标准:可解释性,问责制和道德规范。有了这些措施,各种类型的组织都可以确信他们正在制定合理的数字决策。
可解释性:依赖于ai决策系统的企业应确保其具有适当的算法构造,该构造可捕获决策变量之间的关系以得出业务决策。通过访问此数据,企业可以解释该模型做出决定的原因-例如,将交易标记为欺诈的高风险。然后,人类分析人员可以使用此解释来进一步调查该模型的含义和准确性。决定。
问责制:必须正确构建机器学习模型,并重点关注机器学习的局限性和对所使用算法的仔细考虑。技术必须透明且合规。模型开发过程中的周到性可确保决策合理,例如分数随着风险的增加而适当地适应。
除可解释的ai之外,还有谦虚ai的概念-确保仅将模型用于与训练模型相似的数据示例。如果不是这种情况,则该模型可能不可信,因此应降级为另一种算法。
伦理:必须以可解释性和责任制为基础,对伦理模型进行测试,并消除任何歧视。可解释的机器学习架构允许提取通常隐藏大多数机器学习模型内部工作的非线性关系。这些非线性关系需要进行测试,因为它们是基于训练模型的数据学习的,并且这些数据通常隐含地充满了社会偏见。道德模型可确保明确测试和消除偏见和歧视。
强制执行负责任的ai的部队
建立负责任的ai模型需要花费时间和艰巨的工作,而细致的持续审查对于实施持续负责的ai至关重要。审查必须包括监管,审计和倡导。
法规对于设定使用算法的行为标准和法治非常重要。但是,最终是否满足法规要求,要证明与法规的一致性需要进行审核。
证明符合法规要求需要一个框架来创建可审核的模型和建模过程。这些审核材料包括模型开发过程,使用的算法,偏差检测测试以及使用合理决策和评分的演示。如今,模型开发过程的审计是随意进行的。
引入了新的基于区块链的模型开发审核系统,以实施和记录不可变的模型开发标准,测试方法和结果。此外,它们被用于记录整个模型开发周期中数据科学家和管理层批准的详细贡献。
展望未来,仅凭数据和ai来“尽力而为”是不够的。随着ai倡导者的兴起以及由于ai系统的错误结果而造成的实际苦难,负责任的ai很快将成为整个乃至全球的期望和标准。
组织必须立即执行负责任的ai,并加强和设定ai的可解释性,责任制和道德标准,以确保他们在做出数字决策时表现负责。
美国开发DIDO无线技术 频谱利用率可提高10倍
Beeper Mini升级为独立聊天应用,不再兼容iMessage苹果系统
车用LED照明需求乘风而上 带来产业势力挑战与转机
RY2201—芯锂离子及锂聚电池保护IC概述
保证负压密封检漏仪的精度和可靠性的方法
建立负责和可信任的AI
连接器电镀小课堂系列三 | 打底电镀、基体金属、润滑、电压
关于红外测温在汽车玻璃检测终端应用分析和介绍
盘点沃德十佳发动机
高速数模转换器AD9712B/13B的结构功能和电路设计应用
5G、物联网赋能家电产业,促进绿色节能家电消费
韦东山freeRTOS系列教程之信号量(6)
磁性器件产业集群化将有利于全球产业链重构
添可和鲨客洗地机哪个好?亲测鲨客更胜一筹
羿动与奥动签署战略合作协议 共探「换电+第三方电池服务」新模式
codeblocks怎么编写程序
不看不知道,京东方华为比亚迪,这些巨头都在偷偷搞传感器!
景区气象站的应用,景区环境监测小能手
无人机管理条例出台,大疆对新规定表示支持
量子计算的介绍和运用方向的详细概述