爱吧机器人网 » 专题 > 观点 > 正文

智库专家:美国可能在全球人工智能竞赛中处于落后

核心提示:在全球人工智能竞赛中赢得主导地位的国家必将获得巨大经济利益,包括经济增长率到2035年可能翻一番。不幸的是,美国在如何竞争方面得到了一些错误建议。

智库专家:美国可能在全球人工智能竞赛中处于落后
专注于数据、技术与公共政策的美国科技智库数据创新中心的高级政策分析师Joshua New撰文表示,由于美国采取的一些错误建议,美国有可能在当前的全球人工智能竞赛中落后于他国。该文主要内容如下:

智库专家:美国可能在全球人工智能竞赛中处于落后
在全球人工智能竞赛中赢得主导地位的国家必将获得巨大经济利益,包括经济增长率到2035年可能翻一番。不幸的是,美国在如何竞争方面得到了一些错误建议。

在过去的2017年,为了在人工智能竞争中取得胜利,加拿大、中国、法国、印度、日本和英国都启动了政府支持的重大举措。虽然特朗普政府已经开始关注如何推进这项技术,但还没有制定出与其他国家的战略具有同等凝聚力的国家战略。这种现状带来的后果是,在关于美国政策制定者应如何支持人工智能的对话中,主要关注通过对技术施加限制性监管来避免人工智能潜在危害(而不是支持其增长)的倡导者提交的提案占据了支配地位。

人工智能确实带来了独特的挑战,从可能加剧刑事司法体系中的种族偏见到引起对自动驾驶汽车的道德关注,不一而足。而应对这些挑战的主导观念则是强制实施算法透明度原则或算法可解释性原则,或是成立全局人工智能监管机构。但是,这些措施不仅可能无法有效应对潜在挑战,它们还可能会大大减缓美国开发和采用人工智能的速度。

算法透明度的支持者认为,要求各家公司披露其算法的源代码可让监管机构、媒体和关心此类问题的公民仔细检查代码以及确定是否有任何不当行为的迹象。尽管人工智能系统的复杂性让大家几乎没有理由相信这种做法会有任何实际效果,但对于那些经常无视知识产权保护的国家(特别是中国)的惯犯来说,这会让窃取美国的源代码变得非常容易。同时,这还会给美国在全球人工智能竞赛中的主要竞争对手提供帮助,并减少对美国公司投资开发人工智能的激励。

其他人则提议应用算法可解释性原则。根据此原则,政府会要求各家公司让其算法对最终用户而言可解释,方法包括通过描述其算法的工作原理或仅使用能够阐明其决策理由的算法等。例如,欧盟已将可解释性作为针对人工智能潜在危险的主要检查,并在其《通用数据保护条例》(General Data Protection Regulation,GDPR)中保障每个个体获取关于算法所做特定决策的“有意义信息”的权利。

要求可解释性的做法是恰当的,并且已成为许多领域的标准做法,例如刑事司法领域或消费金融领域。但是,在同一标准不适用于人类决策的情况下,将这一要求扩展到人工智能决策领域则会是一个错误。这种做法会刺激企业依赖人类做出决策,从而避免此类监管负担,但这会以牺牲生产力和创新性为代价。

此外,可解释性和准确性之间可能存在不可避免的权衡。算法的准确性通常随着其复杂性的增加而提高,但算法越复杂,解释起来就会越困难。这种权衡一直存在,拥有两个变量的简单线性回归比拥有两百个变量的线性回归更容易解释。但是,使用更加高级的数据科学方法时,权衡会变得更加尖锐。因此,可解释性要求在可以适当牺牲准确性的情况中才有意义,而这些情况很少见。例如,在自动驾驶汽车中让可解释性优先于准确性会是一个可怕的想法,因为导航准确性或车辆区分道路上的行人和广告牌上的人类照片的能力即便只是略微下降,也可能极度危险。

第三个普遍但糟糕的想法是,成立相当于美国食品药品监督管理局(Food and Drug Administration)或国家运输安全委员会(National Transportation Safety Board)的机构来充当全局人工智能监管机构,这一想法最引人注目的支持者是埃隆·马斯克(Elon Musk)。问题在于,成立人工智能监管机构会错误地暗示所有算法都存在相同水平的风险并需要监管。但是,人工智能系统的决策就和人类的决策一样,仍然受制于各种行业特定的法律和法规,并会根据其应用范围带来各种各样的风险。仅仅因为低风险决策使用了算法就将其置于监管之下会为部署人工智能带来极大的阻碍,并会限制美国公司采用这项技术的能力。

幸运的是,政策制定者能够通过可行的方法,在不破坏人工智能的情况下应对人工智能带来的潜在风险,即采用算法问责制原则。这是一种干涉较少的监管方法,可激励部署算法的企业使用各种控制手段来确保其人工智能系统按照预期运行,并识别和纠正不良后果。它与算法透明度不同,不会威胁知识产权。它与算法可解释性也不同,允许公司部署高级创新人工智能系统,但仍然会要求它们能够在上下文需要时解释其特定决策,而无论是否在这些决策中使用了人工智能。与主要人工智能监管机构不同的是,算法问责制可确保监管机构能够了解其行业特定领域内的人工智能,同时对妨碍人工智能部署的障碍加以限制。

如果美国想要成为全球人工智能竞赛中的有力竞争者,那么政策制定者最不应该做的就是通过效率低下、损害经济利益的监管对人工智能进行束缚。现在想要专注于不公平或不安全人工智能的政策制定者应改为应用算法问责制原则解决自己关切的问题,而不要在美国加入全球人工智能竞赛的过程中加以妨碍。


上一篇:李开复:中国领军 人工智能将产生前所未有的巨大财富
下一篇:为什么海思和寒武纪想更快设计出AI芯片都“盯着”Cadence?

本周栏目热点

国家技术发明一等奖有何价值

[2016-01-14]   江风益在实验室在只发光、不发热的LED照明世界里,南昌大学教授江风益与他的科研团队孜孜以求十余年, ...

人工智能是很火 但创业者们更应该关注的是背后的技术服

[2016-08-07]     相信大家对3月份阿尔法狗战胜李世石的新闻事件还历历在目,各界媒体连续报道了好几天,也将 机器人 和人工智能话题推向风口。   提到人 ...

“机器换人”是机遇还是挑战?

[1970-01-01]     今年双十一,你买了什么?有的答案或许会出人意料:扫地机器人。  一款扫 ...

谷歌AI通过图灵测试:人类的进步还是人性的倒退?

[2018-05-16]  谷歌人工智能新应用Duplex通过图灵测试的消息引发了业界广泛热议。有人说此次事件是AI领域的新里程碑,因为从AlphaGo到Duplex两次证实了现 ...

深兰科技方林博士:人工智能自主进化成为可能

[2018-12-07]  人工智能行业在国内迎来集中研究兴盛期,研究侧重点也从观点提出期,发展到了以谷歌Alpha Go和深兰Deepblue Go为代表的机器学习、深度学习独立研究期,并在智能语音识别交互......

精选推荐

通过对抗性图像黑入大脑
通过对抗性图像黑入大脑

[2018-03-02]  在上面的图片中,左边是一张猫的照片。在右边,你能分辨出它是同一只猫的图片,还是一张看起来相似的狗的图片?这两张图片之间的区别在于, ...

机器人工程师具体都做什么?
机器人工程师具体都做什么?

[2017-12-08]  机器人工程师是幕后设计师,负责创建机器人和机器人系统,能够执行人类无法完成或不愿意完成的任务。 通过他们的创造,机器人工程师帮助工作更安全,更轻松,更高效,特别是......

麻省理工正研究植物机器人 让植物自主控制机器人
麻省理工正研究植物机器人 让植物自主控制机器人

[2018-12-08]  控制论通常指人类用机器人部件增强自己。我们听说过动物机器人或昆虫机器人,但我们很少听说植物机器人对吧?一个机器人其实是对植物有很大益处的,因为一般植物根本无法移动......

2017年:AI渗入云端
2017年:AI渗入云端

[2017-12-29]  云中的人工智能不仅仅是科技巨头的权力游戏,它也可能是人工智能领域的下一个飞跃。加利福尼亚州的Rigetti Computing公司刚刚使用其原型量子芯片之一在其云平台上运行机器学......

Crossbar将电阻式RAM推入嵌入式AI
Crossbar将电阻式RAM推入嵌入式AI

[2018-05-17]  电阻RAM技术开发商Crossbar表示,它已与航空航天芯片制造商Microsemi达成协议,允许后者在未来的芯片中嵌入Crossbar的非易失性存储器。此举是在先进制造业节点的领先代工厂选......

CES 2018:英特尔推出49量子位芯片争夺量子霸权
CES 2018:英特尔推出49量子位芯片争夺量子霸权

[2018-01-10]  在与Google、IBM的一场关于建立量子计算系统的马拉松比赛中,英特尔通过了一个关键的里程碑。近日,这个科技巨头已经推出了一个49个量子位 ...

智能机器人困惑的时候知道该问什么问题
智能机器人困惑的时候知道该问什么问题

[2017-03-20]   照片:Nick Dentamaro 布朗大学 上周,我们提到了麻省理工学院的一些研究,即通过链接人的大脑来帮助机器人在他们将要犯错误的时 ...

人工智能民主化能否实现取决于科技巨头
人工智能民主化能否实现取决于科技巨头

[2017-12-29]  我们经常听到像谷歌和微软这样的公司说他们希望人工智能民主化。这是一个很好的词,民主化。 但这些公司如何界定“民主化”还不清楚,像AI本身一样,它似乎有点炒作的味道...