爱吧机器人网 » 专题 > 观点 > 正文

人工智能如何监管?华盛顿大学教授提出“人工智能三定律”

  8月中旬的时候,马斯克等26国AI技术领袖公车上书要求联合国禁止“杀人机器人”的研发与使用这件事唤起了人们对人工智能使用和监管的新一轮担忧。现在AI已经开始取代部分人的工作,以后AI难道还要用来杀死人类吗?虽然全球各大AI研究机构都在尽量开放自己的成果,促进发展的同时避免技术垄断来减少人们的担心,但仅仅“开放”并不能解决一切问题。

人工智能监管

  近日,AI研究机构艾伦人工智能研究院(Allen Institute for Artificial Intelligence)院长、华盛顿大学教授OrenEtzioni也在纽约时报发表了一篇文章,讲述了他对人工智能监管的看法。OrenEtzioni在TomM.Mitchell指导下于1991年拿到CMU的博士学位,而后在来到华盛顿大学,担任计算机工程学院教授;2005年时他牵头成立了华盛顿大学图灵中心并任主任,中心的研究领域包括数据挖掘、NLP、网络搜索。OrenEtzioni在文中提出了他心中的“人工智能三定律”,雷锋网AI科技评论将文章编译如下。

  被许多人看作“现实版钢铁侠”的美国顶尖科技公司创始人埃隆马斯克,最近敦促国家有关领导人提早采取措施监管人工智能技术。马斯克坚持认为,人工智能是对人类生存的“潜在威胁”,如同科幻作品中的人工智能,是一个令人担忧的观点。不过,即使是像我这样的研究人员也认识到,人工智能会对武器设计,工作机会和隐私安全产生极大的影响。人们对于是否应该开发人工智能技术很自然地会产生疑问。

  我相信答案是肯定的。但是,为了谨慎,难道我们不应该一步一步地至少减缓人工智能A.I.的开发进度吗?问题是如果我们这样做,那么例如中国这样的国家就会超过我们。A.I.之马已经脱缰,我们最好的打算是试图引导它。A.I.不应该被武器化,而且任何A.I.必须有一个坚守的“禁地”。除此之外,我们应该规范A.I.系统对实际应用场景方面的影响,(例如,自动驾驶车辆的安全性),而不是在还未定形且快速发展的A.I.领域试图定义和控制某些概念。

  我提出了三个有关人工智能系统的规则,这些想法是受到科幻作家艾萨夫·阿西莫夫1942年提出的“机器人学三律”启发的。我在此基础上做了进一步发展。阿西莫夫的三定律是:第一、机器人不得伤害人类,或看到人类受到伤害而袖手旁观;第二、在不违反第一定律的前提下,机器人必须绝对服从人类给与的任何命令;第三、在不违反第一定律和第二定律的前提下,机器人必须尽力保护自己。

  这三大定律看上去虽优雅简练但却模糊不清:当涉及到A.I.时,究竟什么才是伤害?基于我提出的三条规则,我找到了更为具体的方法来避免A.I.造成伤害。

  首先,A.I.系统必须遵守其操作人员的所有规则。这套规则将涵盖私人,公司和政府机构。我们不想要A.I.从事网络欺凌,股票操纵或恐怖主义威胁;我们不想要F.B.I.利用A.I.系统钓鱼执法。我们不想要自动驾驶车辆闯红灯,或者更糟的是制造违反国际条约的A.I.武器。

  我们的一般法规应该修改,人们不能借口称是A.I.系统做了一些我们无法理解或预期的事情。简单地说,“不管我事,是A.I干的”;这不应该成为违法行为的借口。

  我的第二条规则是A.I.系统必须清楚地表明它不是人类。正如我们在一则机器人案例中所见-计算机程序可以与真人进行日益复杂的对话-人类社会需要确保A.I.系统被清楚地标示出来。在2016年,一个被称为吉尔·沃森(JillWatson)的机器人在佐治亚理工大学(GeorgiaTech)担任在线课程的教学助理,愚弄学生,并让大家以为它是人类。根据牛津大学的研究人员称,更为严重的例子是在2016年选举之前的日子里,在社交媒体上广泛使用的支持特朗普的政治机器人。

  我的规则将确保人们知道机器人何时冒充某人。例如,我们知道@DeepDrumpf-一个在Twitter上幽默地模仿唐纳德·特朗普的机器人。A.I.系统不仅发出假的推文;它们也发布假新闻视频。华盛顿大学的研究人员最近发布了前总统巴拉克·奥巴马的假视频,非常令人信服地似乎在说一些被嫁接到他视频中的话,真实情况是与他说的完全不同。

  我的第三条规则是若未经该信息来源方的明确许可,A.I.系统不能保留或披露机密信息。由于其能自动引用,记录和分析信息的特殊能力,A.I.系统处于获取机密信息的主要位置。例如开始被越来越多的家庭接受的“智能音箱”亚马逊Echo,就可能会记录下家庭中所有的谈话内容,包括那些私密的,或您的孩子可能无意泄露给A.I.的信息。即使看似无害的室内清洁机器人也会绘制你家的地图。这些就是你要确保管控的信息。

  我相信这些规则听起来还不够完整。我在这里介绍它们,只为抛砖引玉。无论你是否同意Musk先生关于A.I.的进步速度及其对人类的最终影响的观点,很明显的一点是A.I.已经来临。社会大众需要做好准备。

上一篇:面对AI威胁论 瑞士科学家:人工智能难取代人类智能
下一篇:人工智能是新技术?其实历史上AI已经过两次寒冬
精选推荐
揭秘达芬奇手术机器人
揭秘达芬奇手术机器人

[2018-04-19]  达芬奇手术系统是由美国Intuitive Surgical公司制造的机器人手术系统。美国食品和药物管理局(FDA)于2000年通过该标准,旨在利用微创手段 ...

美国喷气推进实验室的AI驱动无人机挑战人类飞行员
美国喷气推进实验室的AI驱动无人机挑战人类飞行员

[2017-12-08]  随着无人机及其组件越来越小,效率越来越高,功能越来越强大,我们已经看到越来越多的研究开始让无人机自主飞行在半结构化的环境中,而不依赖于外部定位。 宾夕法尼亚大学在......

全自动膝关节置换手术机器人被美国FDA批准上市
全自动膝关节置换手术机器人被美国FDA批准上市

[2019-10-14]  美国Think Surgical公司已获得美国食品和药物管理局(FDA)的批准,在美国销售用于全膝关节置换(TKA)的TSolution One®全膝关节应用 ...

麻省理工正研究植物机器人 让植物自主控制机器人
麻省理工正研究植物机器人 让植物自主控制机器人

[2018-12-08]  控制论通常指人类用机器人部件增强自己。我们听说过动物机器人或昆虫机器人,但我们很少听说植物机器人对吧?一个机器人其实是对植物有很大益处的,因为一般植物根本无法移动......

深度神经网络揭示了大脑喜欢看什么
深度神经网络揭示了大脑喜欢看什么

[2019-11-06]  爱吧机器人网编者按:近日,《自然-神经科学》发表了一篇论文,研究人员创建了一种深度人工神经网络,能够准确预测生物大脑对视觉刺激所产 ...

谷歌在中国成立一个新的人工智能(AI)研究中心
谷歌在中国成立一个新的人工智能(AI)研究中心

[2017-12-13]  谷歌正在中国建立一个新的人工智能(AI)研究中心,希望进一步扩展到中国,以充分利用中国高度重视的人工智能技术。人工智能是目前地球上最具竞争力的领域之一,亚马逊,微软......

通过对抗性图像黑入大脑
通过对抗性图像黑入大脑

[2018-03-02]  在上面的图片中,左边是一张猫的照片。在右边,你能分辨出它是同一只猫的图片,还是一张看起来相似的狗的图片?这两张图片之间的区别在于, ...

2017年:AI渗入云端
2017年:AI渗入云端

[2017-12-29]  云中的人工智能不仅仅是科技巨头的权力游戏,它也可能是人工智能领域的下一个飞跃。加利福尼亚州的Rigetti Computing公司刚刚使用其原型量子芯片之一在其云平台上运行机器学......

本周栏目热点

李开复:关于人工智能在中国异军突起的六大主要原因

[2017-11-07]  虽然世界各个国家都已经开始加速对人工智能行业进行布局,虽然世界各国都已经出台了各种政策表示对人工智能的支持,但是就目前的发展形势来看,中美两国在人工智能领域的发展......

[2018-02-05]  “人工智能国际主流学界所持的目标是弱人工智能,也少有人致力于强人工智能。那么,这是不是因为强人工智能‘太难’,所以大家‘退而求其次’呢?不然。事实上,绝大多数人工......

阿里研究院:关于互联网+制造业的10个观点(组图)

[2015-12-29]     互联网对商业环节的渗透和改造是逆向的,从与消费者最近的广告营销端开始, ...

2020年中国AI基础数据服务行业发展报告

[2020-04-03]  核心摘要:目前人工智能商业化在算力、算法和技术方面基本达到阶段性成熟,想要更加落地,解决行业具体痛点, 需要大量经过标注处理的相关 ...

【业界观点】2016年工业机器人需求增速将放缓

[2016-01-19]     2015年中国工业机器人需求规模达到109亿元,同比增长16%,而2016年机器人需 ...