深度卷积神经网络应用于量子计算机

量子机器学习(QML)旨在使用量子系统对向量进行编码,并使用新的量子算法对其进行学习。

深度卷积神经网络应用于量子计算机

爱因斯坦

量子计算机将用于什么用途?量子计算机有望在许多领域帮助解决难题,包括机器学习。

本文详细讲述量子计算机卷积神经网络(CNN)的理论实现。我们将此算法称为QCNN,我们证明了它可以比CNN 更快地运行,并且精度很高

为此,我们必须提出卷积积量子形式,找到实现非线性和池化的方法,以及对表示图像量子态进行层析成像的新方法,以保留有意义的信息



CNN和Quantum计算机的超简短介绍

简而言之,我们可以说量子物理系统可以描述为维度为2^n的某些希尔伯特空间中的向量,其中n是粒子数。实际上,这些向量表示许多可能的观察结果的叠加。

另一方面,机器学习,尤其是神经网络,正在粗略地使用向量和矩阵来理解或处理数据。量子机器学习(QML)旨在使用量子系统对向量进行编码,并使用新的量子算法对其进行学习。一个关键的概念是在许多矢量上使用量子叠加,我们可以同时处理它们。

深度卷积神经网络应用于量子计算机

谷歌的量子计算机最近实现了"量子至上"

我不会更深入地介绍量子计算或QML。有关更多详细信息,可以参考NeurIPS 2019中有关Quantum k-means的一篇文章 :

量子机器学习:量子计算机上的一种更快的聚类算法

卷积神经网络(CNN)是一种流行且高效的神经网络,用于图像分类,信号处理等。在大多数层中,将卷积积应用于图像或张量的输入上。通常后面是非线性层和池化层

深度卷积神经网络应用于量子计算机

3D张量输入X ^ 1(RGB图像)和4D张量内核K ^ 1之间的卷积。



量子卷积层

在本章中,我将重点介绍一层,解释什么是量子CNN。

卷积积作为矩阵乘法

这里的核心思想是我们可以根据矩阵乘法来重新构造卷积积。

深度卷积神经网络应用于量子计算机

X^l和K^l之间的卷积等效于它们的重整形式A ^ l和F ^ l之间的矩阵乘法。可以将输出Y ^ l + 1整形为卷积结果X ^ l + 1。

该算法首先以量子叠加方式加载矩阵的所有行和列。然后,我们使用先前开发的Quantum Inner Product Estimation估算输出的每个像素。在实践中,这就像只计算一个输出像素(图中的红点),但是以量子叠加的方式进行计算可以使它们同时全部都具有!然后,我们可以同时对它们中的每一个应用非线性。

不幸的是,我们所拥有的只是一个量子状态,其中所有像素并行存在,并不意味着我们可以访问所有像素。如果我们打开"量子盒"并查看结果(一个度量),我们每次都会随机地只看到一个输出像素。在打开盒子之前,这里都有"四处漂浮"的东西,就像著名的薛定谔的死活猫。

仅提取有意义的信息

为了解决这个问题,我们引入了一种只检索最有意义的像素的方法

。实际上,量子叠加中的每个输出像素都有一个幅度,与我们测量系统时被看到的幅度有关。在我们的算法中,我们强制此幅度等于像素值。因此,具有高值的输出像素更有可能被看到。

在CNN中,输出中的高值像素非常重要。它们代表输入中存在特定模式的区域。通过了解不同模式出现的位置,神经网络可以理解图像。因此,这些高价值像素承载着有意义的信息,我们可以舍弃其他希望CNN适应的像素

深度卷积神经网络应用于量子计算机

图像上量子效应(噪声,随机性,采样)的小示例。凭直觉,我们仅对高值像素采样后仍可以"理解"图像。

请注意,在对这些输出像素进行采样时,我们可以在存储它们时应用任何类型的合并(有关技术细节,请参见论文)。我们将这些像素存储在经典内存中,以便可以将它们重新加载为下一层的输入。



更快的运行时间

传统上,CNN层需要时间Õ(输出大小x内核大小。这就是为什么例如使用许多大内核来训练这些网络变得昂贵的原因。我们的量子CNN需要时间为O(

σ X输出大小)X Q) ,其中σ是我们从输出(<1)绘制样品的比率,和Q表示量子精度参数和数据相关的参数一束。有没有在内核大小更依赖(数量和尺寸),这可能允许进行更深入的CNN。

量子反向传播

通过量子CNN的这种设计,我们现在也想用量子算法对其进行训练。训练包括遵循梯度下降规则更新内核参数。在这里也可以找到一种更快的量子算法,它几乎等同于具有某些额外误差的通常的梯度下降。

实验

QCNN和量子反向传播看起来不错,但暗示了很多近似,噪声和随机性。尽管有这些伪像,CNN仍然可以学习吗?我们比较了小型经典CNN的训练和QCNN在学习对手写数字进行分类(MNIST数据集)的任务上的模拟。这表明QCNN可以以相似的精度学习

深度卷积神经网络应用于量子计算机

量子和经典CNN训练曲线之间的比较。σ是从每一层后的输出提取的高值像素的比率。期望σ太小,QCNN可以很好地学习。请注意,此数值模拟很小,只能给出直觉,不是证明。

结论

在这项工作中,我们设计了第一个量子算法,通过引入量子卷积乘积和检索有意义的信息的新方法,几乎​​可以重现任何经典的CNN体​​系结构。它可以允许使用更深,更大的输入或内核来大大加快CNN的速度。我们还开发了量子反向传播算法,并模拟了整个训练过程。

请读者思考的问题:我们可以在其他数据集使用大型架构上训练QCNN吗?



分享到:


相關文章: