adtopr
ad1
您所在的位置: 首页 > 焦点

图1基于QuatnumFlow的量子神经网络设计栈

来源:TechWeb    发布时间:2021-11-02 13:40   作者:TechWeb   阅读量:6265   

神经网络是当前计算应用中发展最快,应用最广泛的机器学习算法可是,伴随着应用程序复杂性的不断增加和网络结构的不断扩展,存储性能瓶颈逐渐凸显

图1基于QuatnumFlow的量子神经网络设计栈

在传统的计算平台上,n个数字位只能代表一个n位数据可是,在量子计算中,m个量子比特可以同时表示2 m个数据,并同时操作这些数据

凭借如此强大的存储和计算能力,量子计算机在打破神经网络在传统计算平台上的性能瓶颈,获得量子优势方面具有巨大潜力。

量子神经网络是根据量子计算机的特点设计的神经网络具体来说,研究人员根据量子计算机提供的基本计算单元设计量子电路,从而实现神经网络的计算

今年1月,美国乔治梅森大学的蒋伟文教授在《自然通讯》期刊上提出了第一个神经网络/量子计算协同设计框架QuantumFlow这也是继一年内两篇《自然电子》文章之后的第三篇《自然》子刊

该框架首次表明,通过协同优化神经网络结构和量子电路设计,可以实现与传统计算机相比的指数级加速。

图1基于QuatnumFlow的量子神经网络设计栈。

在QuantumFlow的基础上,江教授领导的量子位团队于今年10月举办了quantumweek,21和ESWEEKrsquo21,QuantumFlow的量子神经网络编程框架QFNN是开源的。

在即将到来的国际计算机辅助设计大会上,21日,增加了两个新成员:

第一个量子神经网络训练器QF—RobustNN,对于噪声感知,

QF—Mixer,一个基于不同量子神经元设计的量子神经网络结构设计器。

迄今为止,第一个开源量子神经网络设计栈已经出现,为量子神经网络的应用提供了坚实的基础。

QFNN

在刚刚结束的QuantumWeek大会上,JQub团队开辟了量子神经网络编程框架QFNN,主要由研究员胡志瑞设计。

QFNN基于Pytorch和IBM Qiskit,为量子电路中的神经网络训练和推理提供基本功能研究人员可以很容易地构建用于神经网络推理的量子电路,只需调用几个函数,就可以将其部署在IBM量子计算机上

QFNN不仅支持QuantumFlow的所有功能,还支持其他量子神经网络设计,包括变分量子电路。

此外,QFNN还提供量子神经网络电路对应的经典计算仿真,可用于验证量子神经网络的正确性,辅助量子计算机进行模型训练。

图2 QuantumFlow协同设计框架。

在QuantumFlow的支持下,QFNN采用了与QuantumFlow相同的结构如图2所示,该框架分为四个模块,包括qf_circ,qf_net,qf_fb和qf_map

目前QFNN支持QuantumFlow中的所有模块,在QF—Net中,增加了对VQC等量子电路的支持。

利用QFNN,研究人员可以快速构建量子机器学习电路,在经典计算机上训练网络,在量子平台上进行推理。

同时,QFNN还支持量子网络结构的探索,即QF—MixerQFNN在github上是开源的,欢迎有兴趣的各方共同开发和添加更多的基础量子神经元实现和量子神经网络实现

QF—RubostNN

在即将于11月1日召开的ICCAD会议上,JQub团队提出了第一个通过训练来学习量子网络中量子比特错误的研究工作,即QF—RubostNN。

本研究主要由梁博士参与,提出了一个错误感知学习的通用训练框架,将解决将神经网络部署到最近的噪声中间量子期的核心问题。

虽然量子计算发展迅速,但目前量子机器上的量子比特误码率将达到10—2,与经典CMOS机器上的经典比特误码率10—15左右相比,无疑是一个巨大的差距。

因此,JQub团队设计了qf—rubostn,首次尝试将噪声学习到量子神经网络中,展现了量子神经网络的容错性分别在量子模拟器和IBM量子机上运行qf—rubostn,大大提高了量子神经网络的推理精度

图3 qf—rubostnn生成的通用框架图。

QF—robustn顶层的训练权重由量子神经网络生成,如QuantumFlow每个周期的训练权值会产生对应的量子电路,此时是逻辑量子位上的逻辑量子电路在为特定应用设计了量子映射之后,逻辑量子位被映射到物理量子位,从而相应的物理量子电路可用

然后在量子机或量子模拟器中运行物理量子电路,得到模型精度的输出通过训练框架,找到此时噪声下表现最好的训练权重最后,将搜索到的训练权重更新为顶层的训练权重

这种方法自始至终固定了逻辑—物理量子映射的规律,可以预测误差,有效减少额外门的数量,从而降低消耗。

图4 QF—RobustNN在不同噪声模型下的精度测量结果。

QF—RobustNN使用在0的噪声环境中表现最好的训练权重作为实验的基线。

过改变模型的 Error rate观察 QF—RobustNN 的实现。

在实验结果中可以看到,经过 QF—RobustNN 的准确率相较 baseline 的情况有所提高,而且值得注意的是,伴随着错误率增加,QF—RobustNN 对准确率的推动作用更加明显,最高达到了 28% 的效果。

该实验展示了量子神经网络学习量子位错误的可能性,在 NISQ 时代的量子机器,噪声是极大的问题与挑战实验结果展示了 QF—RobustNN 的有效性

QF—Mixer

QF—Mixer 是由汪哲鹏博士生主要参与,是第一个探索量子神经网络设计的文章。

伴伴随着量子神经网络在最近几年来的蓬勃发展,一系列关于量子神经元 设计的工作开始涌现。

这些工作通过堆叠各自提出的量子神经元搭建量子神经网络,在简单的机器学习任务中 可以取得较高的准确率可是,当应用于更复杂的机器学习任务时,该类量子神经网络的准确率便会大打折扣

基于这样的现状,QF—Mixer 提出了要混合不同种类的现有的量子神经元来构建一个性能更高的异构量子神经网络。

图 5 混合量子神经元的挑战与 QF—Mixer 设计理念

可是,搭建这样的异构量子神经网络并非易事。

首先,不同的量子神经元对输入和输出的量子态 有着不同的要求,任意地连接两类神经元往往无法达到这些预设的要求。

其次,不同的神经元在计算上也有着不同的特性和逻辑,更高的准确率未必能通过混合不同神经元达到只有找到合适的神经元组合,才能起到1+1gt,2 的效果

针对第一个问题,QF—Mixer 给出了一套在混合不同神经元时需要遵循的准则,这为异构量子神经网络的设计提供了理论支持。

针对第二个问题,JQub 团队发现 Quantumflow 中的量子神经元和变分量子电路 有着极为互补的特性。

一方面,Quantumflow 中的量子神经元 的可学习参数是二值化的,在表达能力上有着较大的限制变分量子电路的可学习参数则为任意实数因此,变分量子电路可以为 QF—量子神经元提供更强的表示能力

另一方面, 变分量子电路仅是一个线性分类器,QF—量子神经元则可以轻松地搭建起拥有多个非线性层的量子神经网络QF—量子神经元可以帮助变分量子电路构建出更为复杂的模型

基于上述观察,QF—Mixer 提出了 QF—MixNN,一个混合了 QF—量子神经元和变分量子电路的异构神经网络框架QF—MixNN 在遵循了 QF—Mixer 提出的混合准则的同时,也在不同的数据集上展现出了更高的准确率

图 6 QF—Mixer 在 10 类分类问题取得高精度

这一点在图 6 中的表格中也得以体现可以看到,在 MNIST 数据集上,QF—量子神经元构成的神经网络和变分量子电路均表现不佳,分别仅有 52.77% 和 69.92% 的准确率

与此同时, QF—MixNN 则有着相当亮眼的表现它在 MNIST 上取得了超过 90% 的准确率对比 QF—量子神经元构成的神经网络和变分量子电路,准确率的提升分别为 20.7% 和 37.85%

JQub 团队介绍

姜炜文助理教授于 2021 年加入乔治梅森大学并建立了量子—经典计算机辅助设计实验室。

并在《自然通讯》期刊,量子计算机周,嵌入式系统周,以及计算机设计会议上发表多篇文章,并进行在线课程辅导讲座。

项目领导人姜炜文目前是乔治梅森大学助理教授他于 2019 年获重庆大学博士学位,2017 年到 2019 年,曾在匹兹堡大学电子和计算机工程系参与研究工作,2019—2021 年,曾在圣母大学做博士后研究助理

博士期间,姜炜文在国际会议和主要期刊上发表了 50 多篇研究论文,其中包括 10 多篇 IEEE/ACM 会刊论文,他在硬件加速和神经网络结构方面的合作研究获得了 IEEE TCAD 2021 最佳论文,以及 DACrsquo,19,CODES+ ISSSrsquo,19 和 ASP—DACrsquo,20 最佳论文提名。

他在神经网络和并行系统等方面的研究工作引起了业界的广泛关注,得到了美国国家科学基金会国际自然科学联合会的科研基金,与 IBM,Facebook, Edgecortix inc. 等公司开展了合作研究。

郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。