爱吧机器人网 » 专题 > 相关科技 > 正文

CES 2018:英特尔推出49量子位芯片争夺量子霸权

核心提示:在与Google、IBM的一场关于建立量子计算系统的马拉松比赛中,英特尔通过了一个关键的里程碑。近日,这个科技巨头已经推出了一个49个量子位

\

在与Google、IBM的一场关于建立量子计算系统的马拉松比赛中,英特尔通过了一个关键的里程碑。近日,这个科技巨头已经推出了一个49个量子位的超导量子测试芯片——足够的量子使得量子计算开始突破现代经典计算机的限制。
 
英特尔首席执行官Brian Krzanich在拉斯维加斯举行的2018年消费电子展(CES)上发表了主题演讲,宣布了代号为“Tangle Lake”的新型49-qubit超导量子芯片的设计和制造。这是Google和IBM研究人员所共同瞄准的一个里程碑,因为当量子计算可以超越经典计算时,它可能标志着迎来了所谓的“量子时代”。
 
但是,英特尔实验室公司副总裁兼董事总经理Michael Mayberry选择用不同的说法来描述量子优势。他说:“从科学的角度来看,50个左右的量子位是一个有趣的分界点,因为此时你已经达到了无法完全预测或模拟芯片量子行为的程度。”
 
在这场量子计算马拉松比赛里,Intel的这个最新宣布让英特尔跻身于该领域的顶级公司行列之中。 IBM的研究人员宣布,他们已经在2017年11月建立了一个50-qubit的量子芯片原型。同样,Google之前曾经谈到了在去年年底之前实现了49-qubit超导量子芯片的雄心。
 
在人们意识到利用量子比特可同时代表多个信息状态的特性所能带来商业前景之前,仍有漫长的路要走。英特尔的路线图表明,研究人员可以在五到七年内实现1,000-qubit系统。这听起来很多,但当你知道许多专家认为量子计算机至少需要一百万个量子位才能从商业角度变得有用之后就不会怎么想了。
 
然而,实际的量子计算也需要比以往更大的量子比特阵列。一个重要的步骤涉及实施“表面编码”误差校正,可以检测和纠正个别量子位的脆弱量子态的破坏。另一个步骤涉及如何将软件算法映射到量子计算硬件。第三个关键问题涉及设计必要的本地电子布局来控制单个量子位并读出量子计算结果。
 
英特尔的7比特,17比特和49比特的芯片。
\
这里显示的是英特尔的7比特,17比特和49比特的芯片。
 
49-qubit的Tangle Lake芯片建立在科技巨头之前的17-qubit阵列的基础之上,该阵列具有进行表面代码纠错所需的最小量子比特数。英特尔还开发了封装以防止射频干扰量子比特,并使用所谓的倒装芯片技术,使更小和更密集的连接获取芯片上的信号。 “我们专注于一个系统,而不仅仅是一个更大的量子比特,”Mayberry解释说。
 
超导量子体系结构涉及超导金属环路,其需要约20毫((-273℃)的极低温度。英特尔的一个“延伸目标”是提高未来系统的运行温度。
 
总的来说,英特尔一直在对可能导致实际量子计算的不同路劲进行“对冲赌注”。这家科技巨头与QuTech以及其他许多小公司建立了合作关系,为量子计算构建和测试不同的硬件或软硬件配置。该公司还将量子计算投资在超导量子比特架构和基于硅中自旋量子比特的另一架构之间平均分配。
 
通常这种自旋量子比特比超导量子比特更小,并且可能以类似于英特尔和其他芯片制造商制造传统计算机晶体管的方式制造。即使在超导量子比特的发展超过自旋量子比特的情况下,这也转化为可扩大到数千或数百万量子比特的潜在巨大优势。在后一个方面,英特尔已经找到了如何根据制造300毫米硅片的工艺来制造自旋量子比特。
 
英特尔的神经形态研究芯片Loihi。
\

英特尔一直在测试其神经形态研究芯片Loihi,于2017年10月首次发布。
 
除量子计算之外,英特尔在开发神经形态计算方面也取得了稳定的进展,目的是模仿生物大脑如何工作。在2018年CES会议期间,英特尔首席执行官Krzanich提供了该公司神经形态研究芯片Loihi的最新信息,该芯片于2017年10月首次亮相。这种芯片可以为支持现代人工智能研究的深度学习算法提供专用硬件。
 
Mayberry说Loihi是要将深度学习训练和芯片推理相结合,据推测能够以更高的能效实现更快的计算。 这可能是一个大问题,因为深度学习算法通常需要一段时间来训练新的数据集,并从过程中作出新的推论。
 
英特尔研究人员最近一直在测试Loihi芯片,通过在几秒钟内识别一小组对象的任务进行训练。 Mayberry说,该公司尚未将神经晶片的功能推向极限。 不过,如果客户可以在Loihi芯片上运行他们的应用程序,而不需要额外的硬件修改,他预计神经形态计算产品可能会在2到4年内投放于市场。
 
Mayberry说:“量子和神经形态计算都不能取代通用计算。 “但他们可以加强它。”(爱吧机器人网原创编译,禁止转载)

上一篇:大数据和人工智能真的对生命科学有用吗?
下一篇:智能家居理想状态 高度人工智能

本周栏目热点

CES 2016:九大炫酷产品盘点

[2016-01-14]   据美国而《时代》周刊1月7日报道,在2016年1月6日于美国拉斯维加斯开幕的国际消费电子展(CES)上,从智 ...

基于STM32的家庭服务机器人系统设计

[2016-01-25]     引言  随着人工智能和传感器技术的发展,机器人已从工厂的结构化环境进入 ...

8款会烹饪的机器人大厨

[1970-01-01]    大黄蜂、铁皮&hellip&hellip用餐时,《变形金刚》里的人物在你身边转悠,或是和你侃侃而谈,这是穿越到未来世界的节奏?非也,这只是机器人餐厅里 ...

[2018-04-03]  数十年来对改进人工智能(AI)的研究一直在进行。然而,直到最近,开发人员终于能够创建与人类的AI能力非常相似的智能系统。这项技术突破的 ...

微软拟开放Edge浏览器关键引擎源代码

[2015-12-09]   据外媒报道,现在,微软在开源工作上取得了越来越多的成果,并且它还在继续对开发者社区开放更多的技术 ...

精选推荐

苹果AI主管透露自动驾驶汽车项目关于机器学习方面的进展
苹果AI主管透露自动驾驶汽车项目关于机器学习方面的进展

[2017-12-11]  苹果隐秘的自动驾驶汽车项目多年来一直在转移焦点,但今年似乎正在加速。 4月份,公司获得了在加利福尼亚州进行自动驾驶汽车测试的许可证,而在6月份,苹果公司首席执行官库......

农业将为高科技行业 农业机器人的应用领域
农业将为高科技行业 农业机器人的应用领域

[2017-12-17]  农业正在迅速成为一个令人兴奋的高科技产业,吸引了新专业人士,新公司和新投资者。技术发展迅速,不仅提高了农民的生产能力,而且促进了我们所知道的机器人和自动化技术的发展。...

机器人工程师具体都做什么?
机器人工程师具体都做什么?

[2017-12-08]  机器人工程师是幕后设计师,负责创建机器人和机器人系统,能够执行人类无法完成或不愿意完成的任务。 通过他们的创造,机器人工程师帮助工作更安全,更轻松,更高效,特别是......

谷歌在中国成立一个新的人工智能(AI)研究中心
谷歌在中国成立一个新的人工智能(AI)研究中心

[2017-12-13]  谷歌正在中国建立一个新的人工智能(AI)研究中心,希望进一步扩展到中国,以充分利用中国高度重视的人工智能技术。人工智能是目前地球上最具竞争力的领域之一,亚马逊,微软......

如何让人工智能机器人快速自我纠正错误并吃一堑长一智?
如何让人工智能机器人快速自我纠正错误并吃一堑长一智?

[2017-08-23]  莱斯特大学数学系的研究人员在《Neural Networks》杂志上发表了一篇文章,概述了新算法的数学基础,可以使人工智能收集错误报告并立即纠正,而不影响现有技能 ,同时还会积......

助力卷积神经网络时空特征学习 史上最大行人重识别视频数据集被提出
助力卷积神经网络时空特征学习 史上最大行人重识别视频数据集被提出

[2017-12-25]  本文提出了一个大型的、长序列的、用于行人重识别的视频数据集,简称LVreID。与现有的同类数据集相比,该数据集具有以下特点:1)长序列:平均每段视频序列长为200帧,包含丰......

这些人型机器人是如此真实,你的肉眼几乎无法区分
这些人型机器人是如此真实,你的肉眼几乎无法区分

[2017-09-03]   我们生活在一个区分现实与幻想变得越来越困难的世界。由于机器人技术的进步,创造人工的人类正在逐渐接近完美的最终目标。我们现在看到的机器人不再只是一块发光二极管,......

人工智能民主化能否实现取决于科技巨头
人工智能民主化能否实现取决于科技巨头

[2017-12-29]  我们经常听到像谷歌和微软这样的公司说他们希望人工智能民主化。这是一个很好的词,民主化。 但这些公司如何界定“民主化”还不清楚,像AI本身一样,它似乎有点炒作的味道...