爱吧机器人网 » 专题 > 观点 > 正文

伦理问题成人工智能最艰巨挑战

在1942年的短篇小说中,科幻作家伊萨克·阿西莫夫提出了机器人三定律——工程安全措施和内置的道德准则,以保证机器人会友善对待人类并使人们免于机器末日。这些定律一是机器人不能伤害人类,或无所作为而导致人类受伤害;二是机器人必须听从命令,除非这些命令违背第一定律;三是机器人必须保护自身,但这些保护不能与第一和第二定律相违背。

不过,今年5月,在美国布鲁金斯学会的一个无人驾驶汽车研讨会上,专家讨论了在危急时刻无人驾驶汽车应当怎样做。如果汽车为了保护自己的乘客而急刹车,造成后方车辆追尾应如何?或当车辆为了躲避儿童而急转,撞到旁边其他人怎么办?随着AI技术的不断发展,类似的伦理道德困境将很快影响到各类人工智能的发展,有一些问题甚至是目前就已经面临的。针对人工智能已经产生或可能产生的更多伦理问题,各国在其战略中都有所提及,除此之外,从事人工智能技术和研究的企业、组织等也采取了多种应对方式。

伦理问题成人工智能最艰巨挑战
目前,AI背后的伦理问题主要显现于以下四个方面:

算法歧视

算法本身是一种数学表达,相对来说比较客观,不像人类那样容易产生偏见、情绪,受外部因素影响。但是,近年来,算法也在产生一些类似的歧视问题。如,美国一些法院使用的一个犯罪风险评估算法COMPAS被证明对黑人造成了系统性歧视。如果你是一个黑人,一旦你犯了罪,就更有可能被该系统错误地标记为具有高犯罪风险,从而被法官判处监禁,或者判处更长的刑期,即使你本应得到缓刑。此外,一些图像识别软件之前还将黑人错误地标记为“黑猩猩”或者“猿猴”;去年3月,微软在Twitter上上线的聊天机器人Tay在与网民互动过程中,成为了一个集性别歧视、种族歧视等于一身的“不良少女”。随着算法决策越来越多,类似的歧视也会越来越多。

一些推荐算法决策可能无伤大雅,但是如果将算法应用在犯罪评估、信用贷款、雇佣评估等关切人身利益的场合,因为它是规模化运作的,并不是仅仅针对某一个人,可能影响具有类似情况的一群人或者种族的利益,所以规模是很大的。而且,算法决策的一次小的失误或者歧视,会在后续的决策中得到增强,可能就成了连锁效应,这次倒霉了,后面很多次都会跟着倒霉。此外,深度学习是一个典型的“黑箱”算法,连设计者可能都不知道算法如何决策,要在系统中发现有没有存在歧视和歧视根源,在技术上可能是比较困难的。

隐私

很多AI系统,包括深度学习,都是大数据学习,需要大量的数据来训练学习算法,数据已经成了AI时代的新石油,但是这带来了新的隐私忧虑。一方面,AI对数据包括敏感数据的大规模收集、使用,可能威胁隐私,尤其是在深度学习过程中使用大量的敏感数据,如医疗健康数据,这些数据可能会在后续过程中被泄露出去,对个人的隐私产生影响。如何在深度学习过程中保护个人隐私是现在很重要的问题。

另一方面,用户画像、自动化决策的广泛应用也可能给个人权益产生不利影响。此外,考虑到各种服务之间的大量交易数据,数据流动越来越频繁,数据成为新的流通物,可能削弱个人对其个人数据的控制和管理。当然,其实现在已经有一些可以利用的工具来在AI时代加强隐私保护,诸如经规划的隐私、默认的隐私、个人数据管理工具、匿名化、假名化、加密、差别化隐私等等都是在不断发展和完善的一些标准,值得在深度学习和AI产品设计中提倡。

责任与安全

一些名人如霍金、施密特等之前都强调要警惕强人工智能或者超人工智能可能威胁人类生存。但AI安全,其实更多地指的是智能机器人运行过程中的安全性、可控性,包括行为安全和人类控制。从阿西莫夫提出的机器人三定律到2017年阿西洛马会议提出的23条人工智能原则,AI安全始终是人们关注的一个重点。此外,安全往往与责任相伴。现在无人驾驶汽车也会发生车祸,智能机器人造成人身、财产损害,谁来承担责任?如果按照现有的法律责任规则,因为系统自主性很强,它的开发者是不能预测的,包括黑箱的存在,很难解释事故的原因,未来可能会产生责任鸿沟。

机器人权利

即如何界定AI的人道主义待遇。随着自主智能机器人越来越强大,它们在人类社会到底应该扮演什么样的角色呢?是不是可以在某些方面获得像人一样的待遇,也就是说,享有一定的权利呢?我们可以虐待、折磨或者杀死机器人吗?自主智能机器人到底在法律上是什么?自然人?法人?动物?物?欧盟已经在考虑要不要赋予智能机器人“电子人”的法律人格,具有权利义务并对其行为负责。


上一篇:以太创服周子敬:今年下半年人工智能和新零售领域存在大的机会
下一篇:「演讲实录」科大讯飞吴骏华:AI赋能,让一切皆有可能
精选推荐
谷歌大脑发布ROBEL基准 鼓励用低成本机器人训练AI系统
谷歌大脑发布ROBEL基准 鼓励用低成本机器人训练AI系统

[2019-10-11]  训练AI系统的机器人D& 39;Claw和D& 39;Kitty用于控制机器人的人工智能系统,测量其性能所使用的基准通常仅限于为工业环境设计的昂贵硬件, ...

Waymo:人性和行为心理学才是无人驾驶最大的挑战
Waymo:人性和行为心理学才是无人驾驶最大的挑战

[2019-11-03]  自动驾驶汽车作为AI领域内最大的挑战之一,谷歌致力于其研发已有十余载,现在他们逐渐意识到,最困难的是如何让人们享受驾驶的乐趣。这是一 ...

这些人型机器人是如此真实,你的肉眼几乎无法区分
这些人型机器人是如此真实,你的肉眼几乎无法区分

[2017-09-03]   我们生活在一个区分现实与幻想变得越来越困难的世界。由于机器人技术的进步,创造人工的人类正在逐渐接近完美的最终目标。我们现在看到的机器人不再只是一块发光二极管,......

麻省理工最新机器人“装配工”未来可建造太空基地
麻省理工最新机器人“装配工”未来可建造太空基地

[2019-10-17]  两个机器人原型把一系列小单元组装成大结构体麻省理工学院科研人员最近提出一种新型机器人技术,即一种小型机器人系统,能够自主地用统一规 ...

基于生物启发的机器人很容易适应丢失附属器官
基于生物启发的机器人很容易适应丢失附属器官

[2017-12-17]  很多机器人被设计应用在危险环境,如灾难现场。在这些地方,他们的运动系统完全有可能被损坏。那这样会吓跑这些机器人吗?也许不是,如果它们像日本的东北和北海道大学创造的......

美国人工智能公司Skymind进入福建全面开展业务
美国人工智能公司Skymind进入福建全面开展业务

[2017-12-11]  人工智能在当今这个时代对大家来说想必是非常熟悉的,这也是我国近十几年来一直追求的目标,未来的时间里这也将是全人类追求的目标。就目前来看,近年来,人工智能或在我国迎......

机器人工程师具体都做什么?
机器人工程师具体都做什么?

[2017-12-08]  机器人工程师是幕后设计师,负责创建机器人和机器人系统,能够执行人类无法完成或不愿意完成的任务。 通过他们的创造,机器人工程师帮助工作更安全,更轻松,更高效,特别是......

英伟达用联合学习创建医学影像AI 可共享数据和保护隐私
英伟达用联合学习创建医学影像AI 可共享数据和保护隐私

[2019-10-14]  英伟达(Nvidia)和伦敦国王学院(King’s College London)的人工智能研究人员利用联合学习训练了一种用于脑肿瘤分类的神经网络, ...

本周栏目热点

李开复:关于人工智能在中国异军突起的六大主要原因

[2017-11-07]  虽然世界各个国家都已经开始加速对人工智能行业进行布局,虽然世界各国都已经出台了各种政策表示对人工智能的支持,但是就目前的发展形势来看,中美两国在人工智能领域的发展......

[2018-02-05]  “人工智能国际主流学界所持的目标是弱人工智能,也少有人致力于强人工智能。那么,这是不是因为强人工智能‘太难’,所以大家‘退而求其次’呢?不然。事实上,绝大多数人工......

阿里研究院:关于互联网+制造业的10个观点(组图)

[2015-12-29]     互联网对商业环节的渗透和改造是逆向的,从与消费者最近的广告营销端开始, ...

2020年中国AI基础数据服务行业发展报告

[2020-04-03]  核心摘要:目前人工智能商业化在算力、算法和技术方面基本达到阶段性成熟,想要更加落地,解决行业具体痛点, 需要大量经过标注处理的相关 ...

【业界观点】2016年工业机器人需求增速将放缓

[2016-01-19]     2015年中国工业机器人需求规模达到109亿元,同比增长16%,而2016年机器人需 ...