人工智能与良好公共政策之间的关系解析

世界各地的政府和机构越来越依赖人工智能。美国、英国和其他地方的警察部门已经开始使用面部识别技术来识别潜在的嫌疑人。法官和法院也已经开始依靠机器学习来指导判决。在英国,据说每三个地方政府中就有一个使用算法或机器学习(ml)工具来决定诸如福利待遇申索之类的问题。政府对扔工智能的这些应用非常广泛,以至于人们不禁要问:这是一个按算法管理的时代吗?
许多批判人士对刑事公正和福利等敏感政策领域迅速扩大使用自动决策表示担忧。其中最常表达的担忧是偏差问题:当机器学习系统在有偏差的数据集上进行训练时,它们不可避免地将数据潜在的社会不平等嵌入模型之中。数据科学和人工智能社区现在对数据偏差问题高度敏感,因此开始更加关注人工智能的伦理问题。同样地,个别政府和国际组织也发表了旨在管理人工智能使用的原则声明。
人工智能伦理的一个共同原则是可解释性。产生扩大社会偏见的人工智能的风险促使人们提高算法或机器学习决策过程的透明度。随着人工智能系统的使用激增,能够解释一个给定的模型或系统是如何工作的将是至关重要的,特别是对于那些由政府或公共部门机构使用的模型或系统。然而,光靠解释并不是灵丹妙药。虽然决策过程的透明度对于民主至关重要,但认为这是解决算法决策将给我们的社会带来的困境的一种简单解决方法是错误的。
原因有两个。首先,对于一般的机器学习,特别是神经网络或深度学习,在性能和可解释性之间往往会有一个权衡。模型越大、越复杂,就越难解释,尽管它的性能通常更好。不幸的是,对于具有许多交互影响的复杂情况,策略的许多关键领域都是如此,机器学习往往越是黑匣子就越有用。因此,追究这些系统的责任几乎总是一个事后监测和评价的问题。例如,如果一个给定的机器学习算法的决策有明显的偏差,那么系统或其所训练的数据则需要进行修改。然而,即使是事后审计,说起来容易做起来难。在实践中,令人惊讶的是,几乎没有对政策结果进行系统的监测,尽管在如何监测方面并不缺乏指导。
第二个原因是一个更为重大的挑战。许多政策的目的往往不明确,典型的原因是政策是追求不同目标的人之间的妥协。当算法的任务是执行政策决策时,公共政策中的这些必要妥协对其提出了挑战。公共政策中的妥协并不总是坏事;它使得决策者既能解决冲突,又能避免对所期望的确切结果提出尖锐的问题。然而,这是算法的一个主要问题,因为他们需要明确的目标才能发挥作用。强调更大的模型可解释性永远无法解决这一挑战。
在自动决策或预测的许多领域,目标的困境不会突然出现,在这些领域中,受影响和运行苏阿法的人的利益是一致的。然而,在公共决策的大多数领域,存在着多重重叠,有时甚至是相互竞争的利益。通常也存在信任缺失,特别是在刑事司法、治安和福利政策方面。在这种情况下,相信以算法强制实现的目标透明度将解决政治冲突是极其天真的。在部署机器进行决策之前,第一步不是坚持算法的可解释性和透明度,而是恢复机构自身的可信度。


内热式和外热式电烙铁有什么区别?
鸿蒙开发之app快速备案流程
AI快速进入体育产业 意味着人类可以藉由科技突破更多体育极限
亚马逊推出新服务,允许汽车厂商开发智能语音助手
AI四小龙之一的依图科技创板IPO申请已获受理
人工智能与良好公共政策之间的关系解析
虹科分享 | 医疗保健产品的无菌加工之冻干法—彻底改进您的冷冻干燥过程
魅族pro7和iPhone7哪个好?花钱只买性价比高的手机
瑞萨电子发布业界领先的10A及15A全封装PMBus电源模块
LG G6可以叫“带鱼”手机了 感觉蛮爽的!
小科普丨企业智能办公储物柜选购,优先看这四点!
计算机SSD行业分类及产业链分析
浅谈PID微分器与滤波器
荣耀V9评测:华为荣耀V9幻夜黑图赏酷黑颜值快人一步!
TDA8540各引脚功能的电压参数资料
稳压电路应用参考电路
日本试飞无人机喷洒农药:高效安全,发展前景良好
基于一个基本粒子的μ子g-2实验
西门子助力奇点打造智能工厂,“数字化”一直处于风口浪尖
小间距led概念股有哪些_小间距led概念股龙头一览