爱吧机器人网 » 专题 > 观点 > 正文

人工智能算法规制如何实现法治公正

核心提示:2016年,哈佛大学肯尼迪学院发布的分析报告指出,目前针对犯罪倾向性预测的人工智能系统,无论技术人员如何调整机器学习的策略和算法,人种和肤色都成为无法抹去的高优先识别变量。那

人工智能,本质上是一种建立在大数据基础上的自我学习、判断和决策的算法,运用于司法实践,其在类案类判、智慧检务建设等司法系统“技术革命”方面发挥着重要作用。在国外,美国还将算法模型应用到量刑、保释、假释等决策中,引发社会广泛关注。例如,在康斯威星州Statev.Loomis案件中,被告认为州法院使用Compas算法模型量刑违反了正当程序原则,其决策的准确性、透明性都有待检讨,遂向州最高法院提出上诉。在科技革命扑面而来的当下,人工智能技术在法律检索、风险评估等法治进程中的应用需要认真对待。

美丽的误解:算法默认是公平的

建立在算法模型基础上的人工智能给社会生活带来巨大便利,如网络约车、区块链、互联网金融等,促进了社会进步,但其潜在的弊端不容忽视。2016年,哈佛大学肯尼迪学院发布的分析报告指出,目前针对犯罪倾向性预测的人工智能系统,无论技术人员如何调整机器学习的策略和算法,人种和肤色都成为无法抹去的高优先识别变量。那么,看似技术中立的算法为什么会产生歧视?

算法,本质是互联网的编程技术,但这种编程技术绝非中立,仍然存在科技错误转变成伤害,进而导致社会不安与仇恨的现象。其实,算法歧视在很多情况下是难以预料的、无意识的副产品,而非编程人员的有意选择,更增加了识别问题根源或者解决问题的难度。

算法歧视是如何出现的?首先,算法结果建立在其所使用的基础数据之上,基础数据的不完善将直接影响算法输出的科学性。数据本应是社会现实的反映,但如果编程数据本身不正确、不完整或过时,输出的结果则会以偏概全。比如,限于目前的裁判文书上网情况,各地关于类案类判制度的试点也存在“数据孤岛”等“先天不足”,这不可避免地将导致算法输出的结果缺乏公平性。其次,算法的设计、目的、成功标准、数据使用体现了设计者、开发者的主观选择,他们可能将自己的偏见嵌入算法系统,这导致算法继承了人类决策者的种种偏见。再次,算法决策是在用过去预测未来,而过去的歧视可能会在算法中得到巩固并在未来得到加强,因为错误的输入形成的错误输出作为反馈,将进一步加深错误。最后,算法决策不仅会将过去的歧视做法代码化,而且会创造自己的现实,形成一个“自我实现的歧视性反馈循环”。

算法歧视的治理难点

人工智能的算法决策具有典型的“黑箱”特点,连设计者可能都不知道算法如何决策,要在系统中发现有没有存在歧视和歧视根源,在技术上非常困难。如果按照现有的法律责任规则,由于系统的自主学习、决策能力很强,它的开发者无法预测最终将输出什么结果,那么“黑箱”的存在难以查找事故原因,将不可避免地产生责任鸿沟。除了如何通过设计确保算法和人工智能系统的公平性外,算法的治理难点还有以下方面:

首先,法律工具主义思维盛行。工具主义是指将各种科技成果视为解决人类问题、增强人类能力的工具,其在法律领域是实用主义法律观的体现。电脑量刑、类案类判输出的结果之所以往往为民众质疑,是因为只讲手段不问目的的工具主义割裂了法律和道德的关系,导致输出结果无法取得社会认同。工具理性取代价值理性的弊端在现代化早期已经暴露无遗了,技术本身并不是目的,也无法自动形成自己的目的。

其次,算法的透明性问题难以公开。算法的输出是“黑箱”过程,即便人工智能最终的应用出现严重后果,算法的过程也可能无从得知。人们无法判断损害到底如何造成、更不清楚算法本身是如何编写的。对于掌握先进科技的企业而言,算法往往属于企业的“商业秘密”,是受到法律保护的“黑箱”。当利用犯罪风险评估软件对犯罪嫌疑人进行评估时,决定司法判决结果的就不再是规则,而是代码。而编程人员将既定规则写进代码时,不可避免地会对这些规则进行调整,但公众包括法官并不知晓,无从审查嵌入到自主决策系统中的规则的透明性、可责性以及准确性。在缺乏必要的问责机制的情况下,无法矫正的算法歧视对司法是一种潜在的危害。

最后,运用法律规制算法歧视在操作层面还需考虑以下方面:第一,公平被量化为计算问题会带来风险吗?第二,如果公平是机器学习和人工智能的目标,谁来决定公平的考量因素?第三,如何让算法、机器学习、人工智能具有公平理念,自主意识到数据挖掘和处理中的歧视问题?

通向公正的算法规制

法律只有能够以直观、明确的方式对人工智能的决策进行追踪,才能够保证人工智能在合法轨道上运行。如果算法继续保持神秘并且掌握人工智能技术的企业的重心始终围绕利润而非公正与平等,那么,人工智能将很难取得公众对其在司法应用中的充分信任。发展人工智能可以促进社会进步,但是法治公正需要考虑技术革新和权力结构变化所带来的新问题。2016年,英国下议院科学和技术委员会发布《机器人与人工智能》,特别强调决策系统透明化对于人工智能安全和管控的作用。世界科学知识与技术伦理委员会也发布关于机器人伦理的初步草案报告,提出应当在机器人及机器人技术的伦理与法律监管中确立可追溯性,保证机器人的行为及决策全程处于监管之下。

首先,对人工智能的法律治理中,必须确立可追溯性原则,让机器人行为决策全程处于监管之下。如此一来,人类的监管机构不仅能够理解智能机器人的思考决策过程以及作出必要的修正,而且能够在特定的调查和法律行动中发挥其本应有的作用。只有保证人类能够全面追踪机器人思考及决策的过程,我们才有可能在监管机器人的过程中占据主动权或者事后进行全面的追踪调查。

其次,立法应将透明、公开、程序合法、说明理由等义务赋予人工智能研发机构,使算法等技术化的监控和决策手段不再是无法被问责的“黑箱”。同时构建技术公平行业规范,通过设计保障公平的实现,通过技术正当程序来加强自主决策系统中的透明性、可责性以及被写进代码中的规则的准确性。例如,谷歌大脑团队公布了“可解释性的基础构件”的研究成果,将算法比喻成“人工神经网络的核磁共振成像”,这种开源化处理使得其他技术人员能够在此基础上编写适用于不同算法和场景的解释性算法。

最后,需要加强法律和技术的融合发展,确保法律人员能够理解、掌握算法的原理和应用。法律规制算法不能仅依靠立法者和规制者的单方面努力,而需要法律人与技术人员的合作。通过法律人向技术人员解释法律规则的要求,技术人员根据要求设计出符合法律要求的算法——法律技术工程师这一职业正在悄然兴起。

人工智能方兴未艾之际,法律应正视并矫正算法歧视,促进人工智能健康、合法地发展。大数据、算法以及人工智能的应用与人的命运息息相关,但大数据资源被垄断掌握、算法歧视不透明将导致普遍的社会不公正。人工智能的法治之路必须体现宪法所保障的公民的基本权利,以及公开、透明等程序性基本要求。法律必须确保算法的可追溯性,赋予人工智能技术研发者程序可解释性的义务,通过强化法律人员和技术人员的互动融合实现算法公正。

(作者单位:安徽大学法学院)

来源:检察日报


上一篇:微软总裁施博德谈人工智能伦理:可信赖开发是关键
下一篇:法律如何面对人工智能化无人机

本周栏目热点

纵论工业机器人产业——“制造业转型升级最后机会”

[2016-04-11]      4月9日,中国(武汉)机器人高精密 减速机 发展高峰论坛在黄陂举行。论坛上, ...

巨变前夕:为何说机器人会引领下一场工业革命

[2016-04-11]      一直以来,关于人工智能和机器人的讨论就不绝于耳,微软公司的人工智能助手 ...

智能制造来袭 深入分析企业岗位及人才需求变化

[2015-12-10]     2015年5月,国务院印发了《中国制造2025》,这是我国实施制造强国战略第一 ...

访谈捷通华声灵云 展望中国人工智能产业

[2016-02-14]     人工智能、大数据、云计算已在世界范围内,成为继互联网、移动互联网之后的 ...

[2016-04-11]     新常态下新趋势  率先进入经济新常态的广东呈现新的变化趋势。省政府前期 ...

中国AI企业融资总额占全球70% 巨大的繁荣背后到底隐藏了什么

[2018-07-20]  今年以来,人工智能领域的发展迎来了新一波高潮。人工智能消费级应用落地的速度不断加快,同时,市场和需求愈加细分。市场人士称,人工智能 ...

智教机器人离真“智慧”有多远?

[2018-07-17]  伴随着“人工智能”新崛起,基于AI技术的各种智能机器人,也开始频繁出现在消费者的视线范围内。记者观察到,无论是各种类型的玩具、教育展会,还是线上线下火热的交易平台,......

中国AI硬件发展和计划——AI周边硬件成为中国下一个发力点

[2018-07-16]  2018年7月16,外星眼机器视觉消息中国正在加快对人工智能(AI)的投资,并且有一项雄心勃勃的计划,即到2020年将其核心人工智能产业产值增 ...

人工智能关键技术决定机器人产业的前途

[2018-07-17]  机器人的技术按照通常的理解分为三个部分,感知、认知和行为控制。感知主要是基于视觉,听觉及各种传感器的信息处理;认知部分则负责更高层的语义处理,如推理,规划,记忆,......

和“猜画小歌”研发团队聊了聊,我们总结出一份登顶攻略

[2018-07-19]  2016年,谷歌阿尔法狗与人类顶级棋手对弈,让全人类意识到人工智能时代的到来;2018 Google I O开发者大会上,Google Assistant像真人助理一样通过电话完成预约理发服务,......

精选推荐

苹果AI主管透露自动驾驶汽车项目关于机器学习方面的进展
苹果AI主管透露自动驾驶汽车项目关于机器学习方面的进展

[2017-12-11]  苹果隐秘的自动驾驶汽车项目多年来一直在转移焦点,但今年似乎正在加速。 4月份,公司获得了在加利福尼亚州进行自动驾驶汽车测试的许可证,而在6月份,苹果公司首席执行官库......

机器人工程师具体都做什么?
机器人工程师具体都做什么?

[2017-12-08]  机器人工程师是幕后设计师,负责创建机器人和机器人系统,能够执行人类无法完成或不愿意完成的任务。 通过他们的创造,机器人工程师帮助工作更安全,更轻松,更高效,特别是......

2017年:AI渗入云端
2017年:AI渗入云端

[2017-12-29]  云中的人工智能不仅仅是科技巨头的权力游戏,它也可能是人工智能领域的下一个飞跃。加利福尼亚州的Rigetti Computing公司刚刚使用其原型量子芯片之一在其云平台上运行机器学......

智能机器人困惑的时候知道该问什么问题
智能机器人困惑的时候知道该问什么问题

[2017-03-20]   照片:Nick Dentamaro 布朗大学 上周,我们提到了麻省理工学院的一些研究,即通过链接人的大脑来帮助机器人在他们将要犯错误的时 ...

通过对抗性图像黑入大脑
通过对抗性图像黑入大脑

[2018-03-02]  在上面的图片中,左边是一张猫的照片。在右边,你能分辨出它是同一只猫的图片,还是一张看起来相似的狗的图片?这两张图片之间的区别在于, ...

人工神经网络技术解码人类行为和想象时的大脑活动信号
人工神经网络技术解码人类行为和想象时的大脑活动信号

[2017-08-23]  为搜索引擎过滤信息,棋盘游戏对弈,识别图像 人工智能在某些任务中远远超过了人类智能。来自弗莱堡由神经科学家私人讲师Tonio Ball博士领导的几个杰出的BrainLinks-Bra......

从AI中窥探人性
从AI中窥探人性

[2018-01-03]  人们对人造智能的恐惧早已成为科幻书籍和电影的极好题材。但现在,一些同样的担忧开始影响关于现实世界AI技术的政策讨论。如果这样的担忧演变成为一种技术恐慌...

如何让人工智能机器人快速自我纠正错误并吃一堑长一智?
如何让人工智能机器人快速自我纠正错误并吃一堑长一智?

[2017-08-23]  莱斯特大学数学系的研究人员在《Neural Networks》杂志上发表了一篇文章,概述了新算法的数学基础,可以使人工智能收集错误报告并立即纠正,而不影响现有技能 ,同时还会积......