QFlowNet: Fast, Diverse, and Efficient Unitary Synthesis with Generative Flow Networks
作者: Inhoe Koo, Hyunho Cha, Jungwoo Lee
分类: quant-ph, cs.AI
发布日期: 2026-03-03
备注: 7 pages, 6 figures, IEEE International Conference on Quantum Communications, Networking, and Computing (QCNC 2026)
💡 一句话要点
QFlowNet:利用生成流网络实现快速、多样且高效的酉矩阵合成
🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture)
关键词: 量子计算 酉矩阵合成 生成流网络 强化学习 Transformer 量子编译 量子线路优化
📋 核心要点
- 现有酉矩阵合成方法受限于强化学习的稀疏奖励问题,导致训练时间长且缺乏解的多样性。
- QFlowNet结合生成流网络和Transformer,旨在学习多样化策略并捕获酉矩阵的非局部结构。
- 实验表明,QFlowNet在3量子比特基准测试中达到99.7%的成功率,并能发现多种紧凑电路。
📝 摘要(中文)
酉矩阵合成是将酉矩阵分解为量子门序列,是量子编译中的一个基本挑战。现有的强化学习(RL)方法通常受到稀疏奖励信号的阻碍,这需要复杂的奖励塑造或长时间的训练,并且通常收敛到单一策略,缺乏解决方案的多样性。本文提出了QFlowNet,这是一个新颖的框架,通过将生成流网络(GFlowNet)与Transformer相结合,可以有效地从稀疏信号中学习。我们的方法解决了两个关键挑战。首先,GFlowNet框架从根本上被设计为学习一种多样化的策略,该策略根据奖励按比例采样解决方案,克服了RL的单解限制,同时提供比其他生成模型(如扩散模型)更快的推理速度。其次,Transformer作为一个强大的编码器,捕获酉矩阵的非局部结构,并将高维状态压缩成策略网络的密集潜在表示。我们的智能体在3量子比特基准测试(长度1-12)上实现了99.7%的总体成功率,并发现了一组多样化的紧凑电路,从而将QFlowNet确立为酉矩阵合成的一种高效且多样化的范例。
🔬 方法详解
问题定义:酉矩阵合成是将酉矩阵分解为量子门序列的关键问题。现有强化学习方法面临奖励稀疏、训练时间长、解缺乏多样性等挑战,难以找到最优或多种量子线路实现。
核心思路:QFlowNet的核心在于利用生成流网络(GFlowNet)学习一个策略,该策略能够根据奖励按比例采样不同的量子线路解决方案。Transformer用于编码酉矩阵的复杂结构,为GFlowNet提供有效的状态表示。
技术框架:QFlowNet框架包含两个主要组成部分:Transformer编码器和GFlowNet策略网络。Transformer将高维酉矩阵压缩为低维潜在表示,GFlowNet利用该表示学习生成量子门序列的策略。训练过程中,GFlowNet通过最大化流一致性来学习奖励函数,从而鼓励生成高质量且多样的解决方案。
关键创新:QFlowNet的关键创新在于将GFlowNet应用于酉矩阵合成问题,克服了传统强化学习方法的局限性。GFlowNet能够学习多样化的策略,并根据奖励比例采样解决方案,从而实现更高效和更灵活的酉矩阵合成。
关键设计:Transformer编码器采用多头注意力机制,捕获酉矩阵的非局部依赖关系。GFlowNet使用前馈神经网络作为策略网络,输出下一步要选择的量子门。损失函数基于流一致性原则,鼓励生成概率与奖励成比例。具体参数设置未知。
🖼️ 关键图片
📊 实验亮点
QFlowNet在3量子比特基准测试中取得了显著成果,成功率高达99.7%。与现有方法相比,QFlowNet能够发现更多样化的紧凑量子电路,证明了其在酉矩阵合成方面的优越性能和效率。具体提升幅度未知。
🎯 应用场景
QFlowNet在量子计算领域具有广泛的应用前景,可用于量子算法的优化、量子编译器的开发以及量子硬件的设计。通过生成更短、更高效的量子线路,QFlowNet能够提升量子计算的性能,加速量子技术的应用。
📄 摘要(原文)
Unitary Synthesis, the decomposition of a unitary matrix into a sequence of quantum gates, is a fundamental challenge in quantum compilation. Prevailing reinforcement learning(RL) approaches are often hampered by sparse reward signals, which necessitate complex reward shaping or long training times, and typically converge to a single policy, lacking solution diversity. In this work, we propose QFlowNet, a novel framework that learns efficiently from sparse signals by pairing a Generative Flow Network (GFlowNet) with Transformers. Our approach addresses two key challenges. First, the GFlowNet framework is fundamentally designed to learn a diverse policy that samples solutions proportional to their reward, overcoming the single-solution limitation of RL while offering faster inference than other generative models like diffusion. Second, the Transformers act as a powerful encoder, capturing the non-local structure of unitary matrices and compressing a high-dimensional state into a dense latent representation for the policy network. Our agent achieves an overall success rate of 99.7% on a 3-qubit benchmark(lengths 1-12) and discovers a diverse set of compact circuits, establishing QFlowNet as an efficient and diverse paradigm for unitary synthesis.