随着人工智能的发展,人类将会把越来越多的决策权交给机器。但是,从目前的一些事例看,基于机器学习的决策并非那么公正完美,相反,那些决策也渗透着偏见。近期的一份研究报告中,google的一名研究科学家mortiz hardt表示:“基于机器学习的决策是极为有用的,同时,它又会深刻影响我们的生活……尽管如此,在如何避免机器学习可能产生的偏见方面,我们仍然缺乏一种可靠的方法。”
本月,这份报告提交给了巴塞罗那举办的nips 大会(nips,神经信息处理系统)。与此同时,其它人也提交了一些相关的论文。这证明此问题正在受到更多人的重视。芝加哥丰田技术学院的计算机科学家 nathan srebro 是上述研究报告的作者之一。他向卫报网站介绍了研究员们使用的测试方法。
srebro 说,这项测试是针对机器学习系统的。通过分析大量的数据,机器学习系统能够对未来做出预测。问题在于,计算机的决策规则并非实现事先编写好的,而是计算机自己学会的,因此,决策背后的逻辑通常是不可知的。即使编写算法的程序员也未必能够搞清楚。
“算法是如此复杂,即使我们能够进入其内部,搞懂其内在原理也是几乎不可能的,” srebro 说,“机器学习的全部要点就是构建魔法黑箱子。”
为此,srebro 与同事们设计了一种测试方法。他们只检测进入算法的数据以及算法给出的决策。“我们的方法并不关注机器学习算法的内部,” srebro 说,“我们只关注它做出了什么决策。”
这个方法基于一个基本原则:当算法做出与某人相关的决策时,它只能揭示数据提供的内容,而不能暴露个人的种族或者性别。例如,在偿还银行债务方面,男性拖欠债务的比例远远超过女性,那么,当数据库里的某人拖欠债务,你可能会推论,那很可能是一个男人。但是,如果你推断说,银行的最佳策略是拒绝所有男性的贷款请求,那么,该决策就精确定位了个人的性别。“这可以视为不合理的歧视,” srebro 说。
针对这个方法,有人提出了质疑。他们认为,这等于是绕过了机器算法的决策过程,使其缺乏任何的透明性。西英格兰的机器人道德学教授 alan winfield 说,“设想一下,如果某个案件涉及到机器算法的决策,法庭将需要专家证人解释算法做出决策的理由。”
不过,他也承认,如果要求机器决策的绝对透明度,那肯定会引起深度学习社群的强烈抗议。谢菲尔德大学机器人和人工智能学教授 noel sharkey 同意这种观点。“如果你要找出输油管道的最佳方案,机器学习是个很好的选择,但是,在我们深入了解算法如何产生偏见之前,我会很在意它做出一些影响人们生活的决策。”
U盘的接口有哪些类型?
MAX4090 3V/5V、6dB视频缓冲器,具有同步头钳位
理想汽车与宁波拓普集团签署战略合作框架协议
华为mate10什么时候上市?华为mate10最新消息:华为mate10三大亮点曝光,竞争iPhone8和三星S8
Soluna建造37000英亩的风力发电场,用于满足世界各地区块链网络的能源需求
机器学习的决策渗透着偏见,能把决策权完全交给机器吗?
三星反击中国企业 在电视市场初次取得成效
光伏并网发电的经济效益,它的优势有哪些
多样性有利于创造更好的人工智能时代
足以比肩iphone!小米5s、魅族pro6plus、锤子M1值得入手
持续深耕物联网领域,武汉芯源半导体发布Sub-1G系列产品CW32W031
贸泽电子恭贺同济大学电车队获得2016中国大学生电动方程式大赛中国组季军
精美绝伦 华为新款MateBook X Pro看得见的高端品质
10Gbps SerDes键合线封装规范
美团独家投资了室内配送机器人企业普渡科技
如果用实际电容模型来仿真效果是怎样的?
今日上会!泰凌微电子掌握核心技术
关于Audi公司V6涡轮增压直喷式轿车柴油机2性能分析
MODBUS-RTU转CCLINK协议网关的应用
工业级交换机和普通商用交换机的区别有哪些?