新智元报道  

编辑:白峰
【新智元导读】日前,由圣母大学姜炜文博士后,史弋宇教授和 IBM 研究院 Jinjun Xiong 博士,在其实现的首个机器学习和量子计算协同设计框架 QuantumFlow 上,首次展示了量子优势,即在传统计算机上需要指数时间完成的神经网络计算任务,可以在量子计算机上以多项式时间完成。
去年,谷歌声称实现了量子霸权,但有评论认为,这项研究只是一个实验室实验,它完全是为了实现一个非常具体的量子采样程序,没有实际应用价值。

量子计算首次在神经网络应用展示量子优势

近日,圣母大学联合IBM研究院,在自研的机器学习和量子计算协同设计框架 QuantumFlow 上,展示了量子计算的实际应用,将指数时间的神经网络计算任务用多项式时间完成了
研究团队在 MNIST 数据集上进行了验证。对比同量级小型网络结构,在获得 23.9% 的精度提升基础上,降低了10.5倍基本计算单元开销(等效于提速 10.5X)。
当网络大小进一步扩大,团队所提出的方法可以获得更高提速。该结果首次展示了神经网络在量子计算机上上的可行性。     
图1  QuantumFlow 在 2020 年 IBM 量子峰会报告 
目前,量子计算机的发展主要受规模小(即量子比特数量)的约束,在 2020 年 9 月 1 日,IBM 发 布了包含 65 个量子比特的量子计算机,并计划与 2023 年实现多达 1121 个量子比特的计算机,这将极大地释放量子计算资源限制瓶颈。
IBM 量子计算机发展规划
相较于量子计算机硬件的迅猛发展,量子计算软件的发展明显滞后。目前为止,仅有少数的应用展示了量子优势,例如质数分解,随机数生成等。
在这样的背景下,研究如何使用量子计算机对广泛使用的应用进行提速变得极为重要
神经网络,作为日前应用发展最为迅猛的人工智能领域的基础,己经广泛应用于各个领域。在这些领域中,存在大量的应用具有超大规模的数据计算量的需求。
例如 3D-核磁共振医疗影像具有 10^6 规模的输入数据,而用于天文研究的平方千米阵的数据规模高达 10^9。面 对如此巨大的数据量,传统计算机已经遇到了计算瓶颈。
量子计算具有独天得厚的优势,其可以使用 K 个量子比特表示 2^K 个数据并进行并行计算。但是,如何利用量子计算的特性来实现神经网络,并获得量子优势仍然是一个未知课题。     

基于神经网络和量子线路协同设计框架,MNIST上性能提升超10倍
研究团队使用了神经网络和量子线路协同设计框架QuantumFlow。该框架之前所使用的神经网络计算层 P-LYR,以及基于该计算层与标准化层 (N-LYR) 实现的神经网络 QF-pNet 已经展示了量子计算机可以实现神经网络,并获得较高精度。然而,该神经网络并没有展示出量子优势

在新的 QuantumFlow 中,该团队设计了新的神经网络计算层 U-LYR,以及基于 U-LYR,P-LYR,N-LYR 三种不 同计算层的混合神经网络 QF-hNet,扩展了 QF-Map 映射器,以支持新计算层的量子实现,充分利用了 软件特性。
图 3 QuantumFlow 协同设计框架加入新成员:U-LYR 与 QF-hNet   
针对U-LYR的量子设计获得了量子优势,对于输入为 2^N 的数据,相较于传统计算机上需要使用 O(2^N ) 计算时间复杂度,在量子计算机上仅仅需要使用 O(N^2) 的计算时间复杂度。
例如,假设单位时间为秒,当 N = 30 时,传统计算机需要使用 2^30 秒 ≈ 34 年的时间进行计算,在量子计算机上,仅需要使用 30^2 = 900 秒就可以完成 。
图4  U-LYR 相较于传统计算机 FC(C) 与目前最新的神经网络在量子计算机实现 FC(Q) 的开销对比         
图4展示了 U-LYR 与其他对照方法的实验结果。其中,红色的点是 U-LYR 在不同输入大小,使用 50 次蒙特卡洛实验所获得的开销,因为量子计算线路实现与权重有关,实验生成 50 个权重,并根据这 些权重构造的量子计算线路。红色线条展示了平均开销。黑色线表示了传统计算机的实现开销。
从该实验结果可以清楚地看到,随着输入大小的增大,传统计算机的开销成指数上升,而 U-LYR 的开销上升缓慢。当输入大小为 16 时,量子计算机只能获取 2.4 倍性能提升,而当输入规模达到 2048 时,性能提升扩大到了 64 倍。
图中蓝色的点与线是目前最新的使用超图状态构造的神经网络量子计算线路,可以看到,它与传统计算机一样,随输入大小增大而指数增大。这组实验首次展示了神经网络计算可以在量子计算机上获取量子优势。     
 图5:利用 U-LYR 构造的 QF-hNet 在 MNSIT 上对比同等量级的神经网络获取了最高的精度     
图 5与表1分别展示了使用 U-LYR 所构造的 QF-hNet 在 MNIST 数据集上所获取的网络模型精度与开销比较。
其中 MLP 是与 QF-hNet 具有相同数量参数的多层感知器在传统计算机上的实 现,FFNN 是最新的神经网络在量子计算机上的实现。
从结果中,我们可以看到,QF-hNet 在不同大小的数据集上均能取得最高精度。并且,对比传统计算机,使用不同大小输入数据均能获得性能提升。特别地,当输入大小为 256 时,QF-hNet 可以获得 10.85 倍的性能提升,这与图 4所展示的结果一致。
这是第一次展示神经网络计算在量子计算机上可以获得量子优势,研究团队也获邀在今年 IBM 量子峰会进行报告。
QuantumFlow 针对 MNIST 的 demo,IBM 量子峰会报告等资料已经在项目网站给出。详细信息请关注:https://wjiang.nd.edu/categories/qf/。 

作者简介

姜炜文目前是圣母大学的博士后研究助理。2019年获重庆大学博士学位。2017年到2019年,曾在匹兹堡大学电子和计算机工程系参与研究工作。
博士期间,姜炜文在国际会议和主要期刊上发表了50多篇研究论文,其中包括10多篇 IEEE/ACM 会刊论文,他在硬件加速和神经网络结构方面的合作研究获得了 DAC’19,CODES+ ISSS’19和 ASP-DAC’20最佳论文提名。
他在神经网络和并行系统等方面的研究工作引起了业界的广泛关注。
推荐阅读:

继续阅读
阅读原文