爱吧机器人网 » 专题 > 观点 > 正文

智库专家:美国可能在全球人工智能竞赛中处于落后

智库专家:美国可能在全球人工智能竞赛中处于落后
专注于数据、技术与公共政策的美国科技智库数据创新中心的高级政策分析师Joshua New撰文表示,由于美国采取的一些错误建议,美国有可能在当前的全球人工智能竞赛中落后于他国。该文主要内容如下:

智库专家:美国可能在全球人工智能竞赛中处于落后
在全球人工智能竞赛中赢得主导地位的国家必将获得巨大经济利益,包括经济增长率到2035年可能翻一番。不幸的是,美国在如何竞争方面得到了一些错误建议。

在过去的2017年,为了在人工智能竞争中取得胜利,加拿大、中国、法国、印度、日本和英国都启动了政府支持的重大举措。虽然特朗普政府已经开始关注如何推进这项技术,但还没有制定出与其他国家的战略具有同等凝聚力的国家战略。这种现状带来的后果是,在关于美国政策制定者应如何支持人工智能的对话中,主要关注通过对技术施加限制性监管来避免人工智能潜在危害(而不是支持其增长)的倡导者提交的提案占据了支配地位。

人工智能确实带来了独特的挑战,从可能加剧刑事司法体系中的种族偏见到引起对自动驾驶汽车的道德关注,不一而足。而应对这些挑战的主导观念则是强制实施算法透明度原则或算法可解释性原则,或是成立全局人工智能监管机构。但是,这些措施不仅可能无法有效应对潜在挑战,它们还可能会大大减缓美国开发和采用人工智能的速度。

算法透明度的支持者认为,要求各家公司披露其算法的源代码可让监管机构、媒体和关心此类问题的公民仔细检查代码以及确定是否有任何不当行为的迹象。尽管人工智能系统的复杂性让大家几乎没有理由相信这种做法会有任何实际效果,但对于那些经常无视知识产权保护的国家(特别是中国)的惯犯来说,这会让窃取美国的源代码变得非常容易。同时,这还会给美国在全球人工智能竞赛中的主要竞争对手提供帮助,并减少对美国公司投资开发人工智能的激励。

其他人则提议应用算法可解释性原则。根据此原则,政府会要求各家公司让其算法对最终用户而言可解释,方法包括通过描述其算法的工作原理或仅使用能够阐明其决策理由的算法等。例如,欧盟已将可解释性作为针对人工智能潜在危险的主要检查,并在其《通用数据保护条例》(General Data Protection Regulation,GDPR)中保障每个个体获取关于算法所做特定决策的“有意义信息”的权利。

要求可解释性的做法是恰当的,并且已成为许多领域的标准做法,例如刑事司法领域或消费金融领域。但是,在同一标准不适用于人类决策的情况下,将这一要求扩展到人工智能决策领域则会是一个错误。这种做法会刺激企业依赖人类做出决策,从而避免此类监管负担,但这会以牺牲生产力和创新性为代价。

此外,可解释性和准确性之间可能存在不可避免的权衡。算法的准确性通常随着其复杂性的增加而提高,但算法越复杂,解释起来就会越困难。这种权衡一直存在,拥有两个变量的简单线性回归比拥有两百个变量的线性回归更容易解释。但是,使用更加高级的数据科学方法时,权衡会变得更加尖锐。因此,可解释性要求在可以适当牺牲准确性的情况中才有意义,而这些情况很少见。例如,在自动驾驶汽车中让可解释性优先于准确性会是一个可怕的想法,因为导航准确性或车辆区分道路上的行人和广告牌上的人类照片的能力即便只是略微下降,也可能极度危险。

第三个普遍但糟糕的想法是,成立相当于美国食品药品监督管理局(Food and Drug Administration)或国家运输安全委员会(National Transportation Safety Board)的机构来充当全局人工智能监管机构,这一想法最引人注目的支持者是埃隆·马斯克(Elon Musk)。问题在于,成立人工智能监管机构会错误地暗示所有算法都存在相同水平的风险并需要监管。但是,人工智能系统的决策就和人类的决策一样,仍然受制于各种行业特定的法律和法规,并会根据其应用范围带来各种各样的风险。仅仅因为低风险决策使用了算法就将其置于监管之下会为部署人工智能带来极大的阻碍,并会限制美国公司采用这项技术的能力。

幸运的是,政策制定者能够通过可行的方法,在不破坏人工智能的情况下应对人工智能带来的潜在风险,即采用算法问责制原则。这是一种干涉较少的监管方法,可激励部署算法的企业使用各种控制手段来确保其人工智能系统按照预期运行,并识别和纠正不良后果。它与算法透明度不同,不会威胁知识产权。它与算法可解释性也不同,允许公司部署高级创新人工智能系统,但仍然会要求它们能够在上下文需要时解释其特定决策,而无论是否在这些决策中使用了人工智能。与主要人工智能监管机构不同的是,算法问责制可确保监管机构能够了解其行业特定领域内的人工智能,同时对妨碍人工智能部署的障碍加以限制。

如果美国想要成为全球人工智能竞赛中的有力竞争者,那么政策制定者最不应该做的就是通过效率低下、损害经济利益的监管对人工智能进行束缚。现在想要专注于不公平或不安全人工智能的政策制定者应改为应用算法问责制原则解决自己关切的问题,而不要在美国加入全球人工智能竞赛的过程中加以妨碍。



上一篇:李开复:中国领军 人工智能将产生前所未有的巨大财富
下一篇:为什么海思和寒武纪想更快设计出AI芯片都“盯着”Cadence?
精选推荐
全自动膝关节置换手术机器人被美国FDA批准上市
全自动膝关节置换手术机器人被美国FDA批准上市

[2019-10-14]  美国Think Surgical公司已获得美国食品和药物管理局(FDA)的批准,在美国销售用于全膝关节置换(TKA)的TSolution One®全膝关节应用 ...

亚马逊CEO杰夫·贝佐斯操控巨型有人驾驶机器人(巨型机甲)
亚马逊CEO杰夫·贝佐斯操控巨型有人驾驶机器人(巨型机甲)

[2017-03-21]  近日,亚马逊CEO杰夫·贝佐斯实现了每一个6岁儿童都会有的梦想,他控制了一个巨大的机甲机器人。据国外媒体Verge报道,前天(3月19日),贝 ...

人工神经网络技术解码人类行为和想象时的大脑活动信号
人工神经网络技术解码人类行为和想象时的大脑活动信号

[2017-08-23]  为搜索引擎过滤信息,棋盘游戏对弈,识别图像 人工智能在某些任务中远远超过了人类智能。来自弗莱堡由神经科学家私人讲师Tonio Ball博士领导的几个杰出的BrainLinks-Bra......

农业将为高科技行业 农业机器人的应用领域
农业将为高科技行业 农业机器人的应用领域

[2017-12-17]  农业正在迅速成为一个令人兴奋的高科技产业,吸引了新专业人士,新公司和新投资者。技术发展迅速,不仅提高了农民的生产能力,而且促进了我们所知道的机器人和自动化技术的发展。...

受大脑控制的机器人
受大脑控制的机器人

[2017-03-21]   想让机器人做我们想做的,首先,他得全面地了解我们。通常,这就意味着人类需要要付出更多。比如,教机器人复杂的人类语言或者把一项任务 ...

基于生物启发的机器人很容易适应丢失附属器官
基于生物启发的机器人很容易适应丢失附属器官

[2017-12-17]  很多机器人被设计应用在危险环境,如灾难现场。在这些地方,他们的运动系统完全有可能被损坏。那这样会吓跑这些机器人吗?也许不是,如果它们像日本的东北和北海道大学创造的......

MIT用深度学习处理3D点云数据 应用于无人汽车等领域
MIT用深度学习处理3D点云数据 应用于无人汽车等领域

[2019-10-23]  如果你见过自动驾驶汽车,也许会对车顶上那个一直在旋转的圆柱体感到好奇。这是一个雷达传感器,无人驾驶汽车依靠它在现实世界中进行导航。 ...

揭秘达芬奇手术机器人
揭秘达芬奇手术机器人

[2018-04-19]  达芬奇手术系统是由美国Intuitive Surgical公司制造的机器人手术系统。美国食品和药物管理局(FDA)于2000年通过该标准,旨在利用微创手段 ...

本周栏目热点

李开复:关于人工智能在中国异军突起的六大主要原因

[2017-11-07]  虽然世界各个国家都已经开始加速对人工智能行业进行布局,虽然世界各国都已经出台了各种政策表示对人工智能的支持,但是就目前的发展形势来看,中美两国在人工智能领域的发展......

[2018-02-05]  “人工智能国际主流学界所持的目标是弱人工智能,也少有人致力于强人工智能。那么,这是不是因为强人工智能‘太难’,所以大家‘退而求其次’呢?不然。事实上,绝大多数人工......

阿里研究院:关于互联网+制造业的10个观点(组图)

[2015-12-29]     互联网对商业环节的渗透和改造是逆向的,从与消费者最近的广告营销端开始, ...

2020年中国AI基础数据服务行业发展报告

[2020-04-03]  核心摘要:目前人工智能商业化在算力、算法和技术方面基本达到阶段性成熟,想要更加落地,解决行业具体痛点, 需要大量经过标注处理的相关 ...

【业界观点】2016年工业机器人需求增速将放缓

[2016-01-19]     2015年中国工业机器人需求规模达到109亿元,同比增长16%,而2016年机器人需 ...