偏见是人工智能的最大危险,人工智能安全的双重规制体系

2019-11-24 作者:概况   |   浏览(193)

[摘要]在人工智能驱动下的新闻生产中,算法已渗透到新闻生产的各个环节,被视为中立的算法本质上是人工产物,算法偏见应引起重视。文章从中介的角度剖析了算法在新闻生产中的不同应用,分析了算法偏见产生的三个来源:算法设计者的偏见、输入数据的偏见和算法局限的偏见。对抗算法偏见的有效措施在于,对处于“黑箱”状态的算法进行监管,算法透明是必然选择,主动的算法透明和被动的算法透明是两种可行的算法透明方式。认识算法、理解算法、批判算法是善用算法的前提,也是算法时代新闻生产的新命题。

姓名:邹宇翔

人工智能的法治之路必须体现宪法所保障的个人的基本权利,以及公开、透明等程序性基本要求。法律必须确保算法的可追溯性,赋予人工智能技术研发者程序可解释性的义务,通过强化法律人员和技术人员的互动融合实现算法公正。

滥觞于20世纪初的人工智能因大数据、云计算的技术突破而重新焕发生机,技术革命的演进为人类打开步入智能融合的数字社会的大门,人类的行为模式和思维活动随着各领域技术的延展而蜕变。

摘要】 在人工智能驱动下的新闻生产中,算法已渗透到新闻生产的各个环节,被视为中立的算法本质上是人工产物,算法偏见应引起重视。文章从中介的角度剖析了算法在新闻生产中的不同应用,分析了算法偏见产生的三个来源:算法设计者的偏见、输入数据的偏见和算法局限的偏见。对抗算法偏见的有效措施在于,对处于“黑箱”状态的算法进行监管,算法透明是必然选择,主动的算法透明和被动的算法透明是两种可行的算法透明方式。认识算法、理解算法、批判算法是善用算法的前提,也是算法时代新闻生产的新命题。

转载自

人工智能本质上是一种建立在大数据基础上的自我学习、判断和决策的算法,其在类案类判、智慧检务建设等司法系统的“技术革命”中起着重要作用。美国还将算法模型应用到量刑、保释、假释等决策中,引发社会广泛关注。例如,康斯威星州State v. Loomis案件中,被告认为州法院使用Compas算法模型量刑违反了正当程序原则,其决策的准确性、透明性都有待检讨,遂向州最高法院上诉。在科技革命扑面而来的当下,人工智能技术在法律检索、风险评估等法治进程中的应用需要认真对待。

人工智能;安全秩序;双重规制体系

关键词】 算法 算法偏见 算法透明 人工智能

【嵌牛导读】:随着人工智能时代的逐渐到来,我们许多人还往往关注着人工智能对于生产力提升所带来的好处与坏处,却很少有人发现偏见在人工智能当中会产生巨大的危险。

一、美丽的误解:算法默认是公平的

滥觞于20世纪初的人工智能因大数据、云计算的技术突破而重新焕发生机,技术革命的演进为人类打开步入智能融合的数字社会的大门,人类的行为模式和思维活动随着各领域技术的延展而蜕变。自劳伦斯·莱斯格(Lawrence Lessig)教授的《代码2.0》出版以降,新技术与规范之间在本质论层面产生了紧张关系。莱斯格教授将代码与法律的互动关系喻为东西海岸之争,用以说明究竟是技术塑造了法律规范,还是法律形塑了技术规范。他的核心观点直指要害,任何技术的规制路径都应当包含市场、架构、社会规范和法律四个维度,人工智能所特有的国家、社会、商业、伦理纵横交错的复杂利益关系导致人工智能的安全问题不断复杂化,从莱斯格教授处抽丝剥茧式觅得人工智能安全规制的完美答案已成奢望。

作者】 张超

【嵌牛鼻子】:偏见、数据、风险、阶级分化

建立在算法模型基础上的人工智能给社会生活带来巨大便利,如网络约车、区块链、互联网金融等带来了社会进步,但其潜在的弊端不容忽视。2016年哈佛大学肯尼迪学院发布的分析报告指出,目前针对犯罪倾向性预测的人工智能系统,无论技术人员如何调整机器学习的策略和算法,人种和肤色都成为无法抹去的高优先识别变量。那么看似技术中立的算法为什么会产生歧视?

内外双重视角下的安全秩序

作者单位】 山东大学文化传播学院

【嵌牛提问】:偏见的产生原因?偏见会附在人工智能中给人类社会带来什么影响?如何去减少偏见带来的影响?

算法本质是互联网的编程技术,但这种编程技术绝非中立。谷歌公司的数码相册软件将深色皮肤的人标记为大猩猩,展示了科技错误如何转变成伤害,进而导致社会不安与仇恨。正如这里所示,算法歧视在很多情况下是难以预料的、无意识的副产品,而非编程人员有意识的选择,更增加了识别问题根源或者解决问题的难度。那么算法歧视是如何出现的?首先,算法结果建立在其所使用的基础数据之上,基础数据的不完善将直接影响算法输出的科学性。数据本应是社会现实的反映,但如果编程数据本身不正确、不完整或过时,输出的结果则会以偏概全。我国的裁判文书上网制度有待完善,各省关于类案类判制度的试点也还存在“数据孤岛”等“先天不足”,这不可避免地会损害算法输出结果的公平性。其次,算法的设计、目的、成功标准、数据使用体现了设计者、开发者的主观选择,他们可能将自己的偏见嵌入算法系统,这导致算法继承了人类决策者的种种偏见。第三,算法决策是在用过去预测未来,而过去的歧视可能会在算法中得到巩固并在未来得到加强,因为错误输入形成的错误输出作为反馈,将进一步加深错误。第四,算法决策不仅会将过去的歧视做法代码化,而且会创造自己的现实,形成一个“自我实现的歧视性反馈循环”。

图灵意义上的人工智能是通过人类知识驱动推理的机械化运作方案,而随着云计算技术不断的衍化、迭代,现代意义上的人工智能由算法和数据耦合所构成,呈现出数据驱动计算运作机理。以机器学习能力为界,有学者将人工智能区分为“符号主义”的老派人工智能和“联结主义”的新人工智能;也有按人工智能的聪慧等级来划分,将人工智能分为弱人工智能与强人工智能(当前强弱区分说已经成为主流观点)。诚然,无论何种分类标准,都对人工智能的社会作用不谋而合,即人工智能正在颠覆人类既有的社会思维习惯和法律规制方案。此外,从国家竞争的角度来看,人工智能也是各国军备竞赛、争夺霸权的“隐形”战场,甚至有不少国家为了谋取优势地位而选择性忽略对人工智能脱缰所带来的伦理问题。人工智能所独有的政治性、社会性以及错综复杂的利益结构,需要从治理层面重视人工智能安全问题。一方面要从内部技术视角关注算法安全和数据安全,同时也要从外部视角关注伦理安全和国家安全。

本文系2017 年度教育部人文社会科学研究青年基金项目“大数据时代的数据新闻生产与伦理研究”(17YJC860033)的阶段性成果

【嵌牛正文】:

二、算法歧视的治理难点

人工智能的安全秩序包含算法安全、数据安全、国家安全、伦理秩序安全四个维度,传统规制人工智能观念正经历着迭代、升级,数字正义(digital justice)作为技术领域的全新秩序价值正发展成为普遍共识。数字正义并非仅关乎在线纠纷的解决,它的核心在于厘清科学技术产生各种类型纠纷的本源,以期利用法律、技术共同预防和解决纠纷的产生。作为人工智能安全价值基础的数字正义理论包含数据正义(data justice)、算法正义(algorithm justice)、国家安全、人类安全四层次的内涵。当前人们多将目光聚焦在数据正义(data justice)领域,欧盟的《统一数据保护条例》、中国纳入立法规划的《个人信息保护法》都是在信息自决的理念基础上对数据流动安全、数据使用公平问题所作的法律秩序安排。

图片 1

John Giannandrea在谷歌领导人工智能系统,他担心智能系统会学习人类的偏见。

人工智能的算法决策具有典型的“黑箱”特点,连设计者可能都不知道算法如何决策,要在系统中发现有没有存在歧视和歧视根源,在技术上非常困难。如果按照现有的法律责任规则,由于系统的自主学习、决策能力很强,它的开发者无法预测最终将输出什么结果,那么黑箱的存在难以查找事故原因,将不可避免地产生责任鸿沟。除了如何通过设计确保算法和人工智能系统的公平性外,算法的治理难点还有以下方面。

算法规制与算法正义

谷歌的人工智能负责人并不担心超级智能的杀手机器人。相反,John Giannandrea担心的是可能潜伏在机器学习算法中的危险,这些算法用于每分钟做出数百万个决策。

首先,法律工具主义思维盛行。工具主义是指将各种科技成果视为解决人类问题、增强人类能力的工具,其在法律领域是实用主义法律观的体现。电脑量刑、类案类判输出的结果之所以往往为民众质疑,是因为只讲手段不问目的的工具主义割裂了法律和道德的关系,导致输出结果无法取得社会认同。工具理性取代价值理性的弊端在现代化早期已经暴露无遗了,技术本身并不是目的,也无法自动形成自己的目的。

囿于当今的技术条件和科技水平,我们可以预见,人类社会仍将长期处于弱人工智能时代,当前算法歧视、算法暴政已经直接威胁到人类科技与经济民主。有鉴于此,算法正义是这个时代需要关切的重点及难点,由人工智能安全的内部视角来观察人工智能规制,会发现其核心即是对算法设计本身的规制,弗兰克·帕斯奎尔(Frank Pasquale)认为一切算法的本质是黑箱,这一观点在技术层面的隐喻为:机器学习神经网络中存在隐层逻辑使得设计者无法对机器学习的优化结果做出合理的解释。但从算法的外部效应来看,黑箱具有相对性,所谓“算法黑箱”仅指对用户的不透明,对设计者来说算法是一种公开且透明的技术实践方案。因此,无论是要求算法设计者强制披露、算法设计者完成设计时自我验证以确保算法的有效性,还是充分尊重用户个人选择,赋予用户事后的算法解释权,以化解合同双方的力量不对等状态,限制“算法权力”,其重点都在于人工智能领域安全维护需要对作为沟通工具的算法进行规制。

“真正的安全问题,如果你想这么说,那就是,如果我们给这些系统有偏见的数据,他们就会有偏见,”Giannandrea在最近的一次关于人类和人工智能系统关系的谷歌会议之前说。

其次,算法的透明性问题难以公开。算法的输出是“黑箱”过程,即便人工智能最终的应用出现严重后果,算法的过程也无从得知。人们无法判断损害到底如何造成、更不清楚算法本身是如何编写的。对于掌握先进科技的企业而言,算法往往属于企业的“商业秘密”,是受到法律名正言顺保护的“黑箱”。当利用犯罪风险评估软件对犯罪嫌疑人进行评估时,决定司法判决结果的就不再是规则,而是代码。而编程人员将既定规则写进代码时,不可避免地会对这些规则进行调整,但公众、官员以及法官并不知晓,无从审查嵌入到自主决策系统中的规则的透明性、可责性以及准确性。在缺乏必要的问责机制的情况下,无法矫正的算法歧视对刑事司法是一种嘲讽。

随着技术向医学和法律等关键领域扩散,机器学习中的偏见问题可能会变得更加严重,而且越来越多没有深入技术理解的人被要求部署这种技术。一些专家警告说,算法偏见已经在许多行业中普遍存在,而且几乎没有人在努力识别或纠正它(见“到处都是有偏差的算法,似乎没有人关心”)。

第三,运用法律规制算法歧视在操作层面还需考虑以下方面:第一,公平可以量化、形式化吗?如何被翻译成操作性的算法?第二,公平被量化为计算问题会带来风险吗?第三,如果公平是机器学习和人工智能的目标,谁来决定公平的考量因素?第四,如何让算法、机器学习、人工智能具有公平理念,自主意识到数据挖掘和处理中的歧视问题?

Giannandrea补充说:“重要的是,我们要透明地了解我们正在使用的培训数据,并在寻找隐藏的偏见,否则我们将建立有偏见的系统。”“如果有人试图向你推销一个用于医疗决策支持的黑盒系统,而你不知道它是如何工作的,或者是什么数据被用来训练它,那我就不会相信它了。”

三、通向公正的算法规制

黑箱机器学习模式已经对一些人的生活产生了重大影响。一个名为“COMPAS”的系统是由一家名为“Northpointe”的公司制造的,它可以预测被告是否有再次犯罪的可能性,并被一些法官用来判定一个囚犯是否被假释。COMPAS的运作方式是保密的,但ProPublica的调查发现,这种模式可能会对少数群体产生偏见。

法律只有能够以直观、明确的方式对人工智能的决策进行追踪,才能够保证人工智能在合法轨道上运行。如果算法继续保持神秘并且人工智能公司的重心始终围绕利润而非公正与平等,那么人工智能将很难取得公众对其在司法应用中的信任。发展人工智能为了促进社会进步,法治公正需要考虑技术革新和权力结构变化所带来的新问题。2016年英国下议院科学和技术委员会发布《机器人与人工智能》,特别强调决策系统透明化对于人工智能安全和管控的作用。世界科学知识与技术伦理委员会也发布关于机器人伦理的初步草案报告,提出应当在机器人及机器人技术的伦理与法律监管中确立可追溯性,保证机器人的行为及决策全程处于监管之下。

然而,它可能并不总是像公布数据的细节或使用的算法那样简单。许多最强大的新兴机器学习技术在工作中是如此的复杂和不透明,以至于他们不顾仔细的检查(见“人工智能核心的黑暗秘密”)。为了解决这个问题,研究人员正在探索如何让这些系统向工程师和终端用户提供一些近似的工作方式。

首先,对人工智能的法律治理中,必须确立可追溯性原则,才能让机器人行为决策全程处于监管之下。如此一来,人类的监管机构不仅能够理解智能机器人的思考决策过程以及作出必要的修正,而且能够在特定的调查和法律行动中发挥其本应有的作用。只有保证人类能够全面追踪机器人思考及决策的过程,我们才有可能在监管机器人的过程中占据主动权,或者在出现问题的时候进行全面的追踪调查。其次,立法应将透明、公开、程序合法、说明理由等义务赋予人工智能研发机构,使算法等技术化的监控和决策手段不再是无法被问责的“黑箱”,同时构建技术公平行业规范,通过设计保障公平的实现,通过技术正当程序来加强自主决策系统中的透明性、可责性以及被写进代码中的规则的准确性。例如,谷歌大脑团队公布了“可解释性的基础构件”的研究成果,将算法比喻成“人工神经网络的核磁共振成像”,这种开源化处理使得其他技术人员能够在此基础上编写适用于不同算法和场景的解释性算法。第三,需要加强法律和技术的融合发展,确保法律人员能够理解、掌握算法的原理和应用。法律规制算法不能仅依靠立法者和规制者的单方面努力,而需要法律人与技术人员的合作。通过法律人向技术人员解释法律规则的要求,技术人员根据要求设计出符合法律要求的算法——法律技术工程师这一职业正在悄然兴起。

Giannandrea有充分的理由强调可能会有偏见渗透到人工智能中。谷歌是向各类企业兜售其云计算平台的人工智能能力的几家大公司之一。这些基于云的机器学习系统的设计要比底层算法简单得多。这将有助于提高这项技术的可访问性,但也可以让偏见更容易潜入。此外,提供教程和工具也很重要,帮助那些经验不足的数据科学家和工程师识别并消除他们训练数据中的偏见。

人工智能方兴未艾之际,法律应正视并矫正算法歧视,促进人工智能健康、合法地发展。大数据、算法以及人工智能的应用与人的命运息息相关,但大数据资源被垄断掌握、算法歧视不透明将导致不公正。人工智能的法治之路必须体现宪法所保障的个人的基本权利,以及公开、透明等程序性基本要求。法律必须确保算法的可追溯性,赋予人工智能技术研发者程序可解释性的义务,通过强化法律人员和技术人员的互动融合实现算法公正。

受邀参加由谷歌组织的会议的几位演讲者也强调了偏见的问题。谷歌研究人员玛雅古普塔称,她努力开发更不透明的算法,这是一个内部被称为“GlassBox”的团队的一部分。Karrie Karahalios是伊利诺伊大学计算机科学教授,他提出了一项研究,强调在最常见的算法中发现偏见是多么棘手。Karahalios指出,用户通常不理解Facebook如何过滤新闻流中显示的帖子。虽然这看起来无伤大雅,但却很好地说明了询问一个算法是多么困难。

作者简介

Facebook的动态消息算法肯定会影响公众对社交互动的看法,甚至会影响重大新闻事件。其他的算法可能已经在微妙地扭曲了人们接受的医疗护理,或者在刑事司法系统中如何得到治疗。这肯定比杀手级机器人重要得多,至少目前如此。

姓名:李 婕 工作单位:人民法院报

近年来,Giannandrea无疑是一个理性的声音,在一些关于人工智能带来风险的更异想天开的警告中。尤其值得一提的是,Elon Musk最近警告说,人工智能比朝鲜更大的威胁,可能会导致“世界第三”。

Giannandrea说:“我反对的是,我们将会飞跃到某种超级智能的系统,然后让人类变得过时。”“我理解人们为什么会担心这个问题,但我认为它的时间太长了。”我只是看不出有什么技术依据来解释为什么会这样。”

本文由澳门新葡亰 官方app发布于概况,转载请注明出处:偏见是人工智能的最大危险,人工智能安全的双重规制体系

关键词: