现在的位置: 首页资讯>正文

量子计算和类脑芯片可能成为改变AI的两大技术,何时能达预期?

2019年01月15日 作者: 暂无评论 165+ 0

为了实现更高级别的人工智能,各方都在寻找解决方法。在现有的技术和产品上进行优化是一种收效更快的方法,然而具有革命性的新技术更能引起关注。其中,量子计算和类脑芯片每一次的进展都吸引了大量关注,它们的发展是否已经达到预期?

AI、量子计算、类脑芯片都是很早就被提出,但AI时代对量子计算和类脑芯片的需求更加迫切。原因是传统的冯·诺依曼结构出现了瓶颈,冯·诺依曼结构中计算模块和存储单元分离,CPU在执行命令时必须先从存储单元中读取数据,所以即便CPU处理的速度再快,也要等内存。由此,基于冯·诺依曼结的AI计算面临算力提升以及“内存墙”等挑战。

冯·诺依曼结构

那么,量子计算和类脑芯片都具备引领AI发展的潜力,这两种计算方式目前进展如何?

量子计算

你以为的量子计算

量子计算机用“量子比特(qubits)”来存储数,相比现在计算机使用的经典比特,传统的二进制存储数据只能是“0”或“1”的某状态,而1个量子位可以同时存储0和1,通过量子力学实现叠加。因此,量子计算能解决目前计算机系统无法解决的问题。

当然,提到量子计算许多人可能会想到的是量子计算的超强计算能力,比如一台50量子比特的设备运算速度可达每秒1125亿亿次,秒杀目前世界最强超级计算机。当然,还有人期待量子计算实现许多当下的计算机还不能实现的问题,比如密码破解,模拟量子物理系统,模拟材料学、化学和生物学,以及解决人工智能中的很多问题。

但实际情况如何?

1980年代,量子计算机多处于理论推导状态,1994年彼得·秀尔(Peter Shor)提出量子质因数分解算法。到了2011年5月11日,加拿D-Wave 系统公司发布了号称“全球第一款商用型量子计算机”的计算设备“D-Wave One”,含有128个量子位。不过,该量子设备是否真的实现了量子计算当前还没有得到学术界广泛认同,只有证据显示D-Wave系统在运作的时逻辑不同于传统计算机。

之后,NASA、Google、IBM、新南威尔士大学、美国马里兰大学学院市分校相继在量子计算上取得一些进展,越来越多的学术机构、公司和国家加入了量子计算的竞争。2018年,巨头们的竞争更加激烈。

2018年量子计算备受关注

CES 2018上,英特尔宣布成功设计、制造和交付49量子比特(量子位)的超导测试芯片Tangle Lake。6月,英特尔称研究人员正在测试一种微小的新型“自旋量子位”芯片,这款芯片比铅笔的橡皮擦还小,是目前英特尔最小的量子计算芯片。

2018年3月,谷歌推出一款名为Bristlecone的芯片,据悉Bristlecone芯片拥有超导电路制成的72个量子比特,据称是最大的量子芯片,超过IBM的50量子比特和英特尔的49量子比特。

同月,百度宣布成立量子计算研究所,开展量子计算软件和信息技术应用业务研究,计划在五年内组建世界一流的量子计算研究所,并逐步将量子计算融入到业务中。

还是3月,微软宣布发现马约拉纳费米子的存在证据,下一步会将费米子转化为量子,并希望在2018年年底实现,并在5年内向其他企业提供可用的量子计算机。

5月,微软又在Build大会上宣布要在五年内造出一台拥有100个拓扑量子比特的量子计算机,并将其整合到微软云Azure中。

阿里巴巴量子实验室施尧耘团队也在5月宣布成功研制当前世界最强的量子电路模拟器太章。太章成功模拟了 81(9x9)比特 40 层的作为基准的谷歌随机量子电路,之前达到这个层数的模拟器只能处理 49 比特。

还是5月,《科学进展》杂志以《A chip that allows for two-dimensional quantum walks》为题报道了上海交通大学金贤敏团队通过“飞秒激光直写”技术制备出节点数达49×49的光量子计算芯片。据悉,这是目前世界上最大规模的三维集成光量子计算芯片。

9月的阿里云栖大会上,阿里CTO、达摩院院长张建锋表示达摩院已经开始研发超导量子芯片和量子计算系统。

10月,华为在全联接大会期间正式发布量子计算模拟器HiQ云服务平台,包括量子计算模拟云服务以及量子编程框架。

12月,中国科学技术大学郭光灿院士团队宣布成功研制出一套精简、高效的量子计算机控制系统。

文章分页: 1 2 3 4

发表评论

相关文章

AI和工业4.0之间,差距不是那一星半点?

如今,人工智能在工业领域有着蓬勃发展趋势,因为自动化以及优化仍是数字革命的主要焦点。在本文中,我们将回顾近几年在AI社区中那些令人兴奋的最先进的计算机视觉技术,这些技术被认为是工...

一边享用便利,一边恐惧风险:AI有多接近你,你又有多害怕AI

从1958年美国原子能委员会提出在建筑中使用核爆的计划,再到谷歌眼镜,历史上有不少昙花一现的项目和技术。不过,人工智能(AI)显然不在此列,因为它正在不断刷新着存在感。  

人工智能都能伪造指纹了,生物识别还安全吗

“人工智能技术能够将海量的指纹数据作为‘原材料’,学习到他们的结构特征和细节信息,并且根据一定的规则进行重组,生成仿真度极高的伪造数据。”人工智能行业资深人士孙立斌告诉我们。

AI 真的来了!人脸识别距离你家门口还有多远?

最近 Google 中国开始新一轮的 PR,其中一项是在知乎发起品牌提问,内容是「哪件事让你开始相信 AI 就在身边」。抛开这个问题中 Google 想对「猜画小歌」一类项目的宣传不说,「让用户相信 A...

开源软件、人工智能,偷偷告诉你2019年IDC那些亮点!

2019年,许多组织将投资开源软件,管理物联网设备,将人工智能和机器学习集成到业务运营中,并为新的微处理器设计做好准备。