从他眼里我看到了像孩子般天真无邪的对梦想的执着。“我感觉自己很幸运,我无法想象还有什么问题能比我研究的更加有趣,因此我会每天都在思考它们。每个时刻我都在做自己真正信仰的事情。不然我为什么要做这些呢?人生如此短暂。”
如果对 人工智能 的忧虑真的像史蒂夫·霍金、比尔·盖茨、埃隆·马斯克、Jaan Tallinn 和 Nick Bostrom 等伟大的科学人物所说的那样,那生命会变得更加短暂。从无节制的AGI武器到对技术奇点恐惧的担忧都会导致一场“智能爆炸(intelligence explosion)”,即机器将有能力进行无限循环的自我进化,它们将能超过人类大脑的智力,也超出我们的控制力。当超级智能灾难开始显现,历史就不再是一个可靠指标,我们将无法预见到应该何时从 人工智能 军备竞赛中全身而退,直到这一切开始发生。罗伯特·奥本海默(原子弹之父)有句名言:“当你在某项技术上尝到甜头时,你会继续前行,只有当你获得技术上的成功后才会去考虑应该如何对待它。”几十年之后,Bostrom也提到:“如果有一种方法可以保证高级 人工智能 永远不会伤害人类,那这种智能就已经被创造出来了。如果没有任何办法去做出这种保证,那它们也有可能被创造出来。”霍金近期总结到:“在创造 人工智能 方面取得的成功将会是人类历史上最重要的事情。不幸的是,这也可能是最后一件。”
“这么说吧,我希望不会。”Hassabis不动声色的说到。在他看来,公众对于通用 人工智能 的危言耸听阻碍了极具潜力的近期收益,并且本质上就错了,至少时间尺度上有问题。“我们距离那种能够达到人类级别的通用智能还得好几十年,”他提醒我,“我们才爬到梯子的第一级,只是在玩游戏。”他认可有一些“合理风险需要我们现在去思考”,但显然这些并不是科幻小说里的那些反乌托邦式的场景,在那些小说里,超级智能机器总是会无情的除掉它们的人类造物主。
另外,他坚信,当涉及减少通用 人工智能 的潜在危险时,DeepMind同样走在了前列。虽然不像那种类似政府领导的阿波罗或曼哈顿之类的项目需要接受官方审查,但这家公司的操作相当透明。它更倾向于发布它的代码,而和谷歌的此次交易的协议中还附带一个条款:禁止将该技术应用于军事或情报用途。Hassabis和他的同事们在推动2015波多黎各 人工智能 大会召开方面发挥了重要作用,并在呼吁将此项技术应用于“善举”并在“避免潜在危害”的公开信上公开签字。他们最近联合组织了另一场在纽约的同类会议,而他们公司内部的道德董事会和咨询委员会目前也召集完毕(尽管是秘密进行的)。Murray Shanahan表示:“Hassabis完全了解 人工智能 的 安全 系数,他当然不是天真无知,更不是把头埋进沙子里的鸵鸟。”
“DeepMind在鼓励讨论这些事情方面是行业的领先者,”Bostrom对此表示了赞同,“在参与一些需要应对长期挑战的研究方面亦是如此。”
我让Hassabis列出他认为的最主要的长期挑战有哪些。“由于这些系统变得越来越复杂,我们需要思考如何充分利用它们,以及它们又能将什么东西进行优化,如何进行优化,”他回复道:“技术本身是中立的,但它是一个学习系统,所以不可避免的,它们会承担一些价值体系的印记和设计者的文化,所以我们需要非常小心翼翼地思考这些价值观。”
关于超级智能的问题,他说到:“我们需要确保目标精确详细,并且没有什么模糊的地方,不会随着时间的流逝而发生变化。但在所有的系统中,最顶层目标仍然由它的设计者确定。这可能需要系统自己想办法达成目标,但它不能自行创造目标。”
他的语气让人放心。“看吧,这些是有趣又有难度的挑战。因为这些全新的强大技术需要符合伦理和有责任感地使用,而这就是我们积极呼吁讨论和研究这一事宜的原因,所以当那个时间窗口到来时,我们能够已经做好了准备。”
这到底是个怎样的时刻?当机器变成超级智能?还是机器超越了人类?他笑了,“不不不,我是说,在那之前。”(我知道他在开玩笑,尽管他的同事Shane Legg曾经在2011年明确表示:“我认为人类灭绝可能会发生,而技术可能会是罪魁祸首之一。”)Hassabis声明:“我的意思是,当这些系统更加强大,而不仅仅是玩游戏,我们会将它们应用在更加具体、实际和重要的事情上,比如说医疗健康领域。然后,我们需要确保我们知道它们的能力能够发展到什么地步。”他冲我咧嘴一笑,“这将阻止机器掌管世界这一场景的发生。”
Hassabis很爱笑。他非常友好,又极具说服力。他说的每件事都似乎都很有道理,而且并不自负,但谁知道呢:也许通用 人工智能 会在我们的掌控之下。但很多人持怀疑态度。“显然,如果出现了一种在各方面都超过人类的数字智能,那『助理』这个词就不再是个正确的描述了。”埃隆·马斯克争辩道,他最近将 人工智能 技术方面的进步描绘成人类在“召唤恶魔”。这位SpaceX创始人、特斯拉和PayPal联合创始人也是DeepMind的早期投资者之一,但并非为了赚钱。“我不在乎为了投资而投资,”他告诉我,“我把钱投给DeepMind的唯一原因就是想要更加了解 人工智能 的进展和危害。如果我们不认真对待 人工智能 ,一旦发生了什么不好的事情,银行存款也会变得毫无意义。”
“埃隆是最聪明的人之一,和他交谈很令人享受,”Hassabis不偏不倚的回应说,“我真的认为像他这样的人喜欢 人工智能 是件非常酷的事,因为这足以说明这是件大事。”他表现的成熟老练,但其他领域的科学家对 人工智能 公开的随意评论显然激怒了他:毕竟你从来不会听到他对粒子物理大放厥词。
“通常,我发现那些没有真正研究 人工智能 的人们并不完全理解这些。他们通常没有跟很多 人工智能 专家深入交谈,他们的思想实验就随着他们的想法跑偏了,因为他们都是基于那些我认为并不正确的设想。”他再一次提到,他成立的内部伦理委员会和咨询董事会——由不同科学和哲学学科方面的领袖组成——将会管控通用 人工智能 技术的未来使用。他坚决维护他现阶段保持继续探索的决定。“之前从未有人走到过这一步,所以在接受大众监督之前,我们必须筛选做一些探索性工作。”他表示,这一初始阶段是关于“让所有人都跟上进度,然后在下一阶段我们就能够讨论真正的 算法 和应用了。对很多涉及其中的人来说,这并不是他们的核心区域。我们需要他们的专业知识,但他们需要更好的了解究竟发生了什么。”