近日,科学家提出量子神经网络的新NFL定理(No-Free-Lunch theorem),推动了量子计算机在机器学习领域的发展。
理论学家此前认为,一个量子神经网络需要指数级增长的训练算法集,但美国洛斯阿拉莫斯国家实验室研究人员提出的量子NFL定理表明,量子纠缠可以消除这种指数级的增长。该研究成果发表在《物理评论快报》(Physical Review Letters)上。
图片来自《物理评论快报》(Physical Review Letters)
量子纠缠描述的是在原子尺度上的粒子系统的状态,是量子计算的关键组成部分。“我们的工作证明了大数据和量子纠缠在量子机器学习中均具有价值。(量子)纠缠可以带来扩展性,从而解决了在学习算法时,以指数级增长的庞大数据问题。”美国洛斯阿拉莫斯国家实验室计算机科学家Andrew Sornborger说道,“这个定理给了我们希望,量子神经网络正朝着量子加速的目标前进,最终它们将超越现有的经典计算机功能。”
传统的NFL定理指出,由于对所有可能函数的相互补偿,最优化算法的性能是等价的。这个定理展示了数据在经典机器学习中的作用,这意味着数据越多,平均性能就越好。但在量子机器学习中,量子神经网络的发展将受到指数级增长的庞大数据限制。
美国洛斯阿拉莫斯国家实验室的新NFL定理表明,在量子体系中,量子纠缠可以用来交换数据以减少对数据量的需求。该团队利用Rigetti量子计算机,将量子数据与参考系统纠缠在一起,以验证新定理。
传统NFL定理与量子NFL定理对比,图片来自论文
“我们在量子硬件上证明,通过使用量子纠缠,可以有效地违反标准的NFL定理。而我们对该定理的新公式在实验测试中是成立的。”
论文第一作者Kunal Sharma表示。“新NFL定理表明,在量子机器学习中,量子纠缠和大数据都应该被视为具有价值的资源,”美国洛斯阿拉莫斯国家实验室物理学家Patrick Coles说,“而传统的神经网络只依赖于大数据。”
澎湃新闻记者 王蕙蓉