
介绍
本周,微软因推出其突破性的量子计算机芯片 Majorana 1 而成为头条新闻。这款创新芯片非常小巧,可以握在手掌中,它采用了拓扑量子比特,这一概念虽然复杂,但在抗错性方面却具有显著优势。
目前,Majorana 1 具有 8 个量子比特,但微软计划在未来将其扩展到惊人的 100 万个量子比特。这一进步重塑了实用量子计算机的时间表,将等待时间从几十年缩短到仅几年。
在本文中,我们将探讨量子计算的变革潜力,研究其历史背景,深入研究 Majorana 1 的具体细节,并评估行业对量子计算发展时间表的预测。

量子计算的优势
量子计算机多年来一直是热门话题,但许多人却觉得它令人望而生畏。关键在于,一旦完全实现,量子计算机在解决特定问题方面将胜过传统系统,从而显著加快复杂数据的处理速度。
传统计算依赖于位,位表示二进制值 0 或 1。这些位是微芯片内计算的基本单位,微芯片通常包含数十亿个晶体管,用作逻辑门,用于执行 AND、OR 和 NOT 等运算。这种顺序处理虽然有效,但本质上限制了计算速度。
相比之下,量子计算机使用量子比特,量子比特具有独特的属性,可以同时表示 0、1 或两者——这种现象称为叠加。这种能力使量子系统能够并行处理信息,从而大大提高效率。
量子计算的另一个强大方面是纠缠,即量子比特以某种方式相互连接,无论距离多远,一个量子比特的状态都会直接影响另一个量子比特的状态。这种关系提高了信息处理速度,并有助于解决复杂的问题。
干涉是量子计算中另一个基本原理,有助于优化计算结果。干涉通过放大期望结果并最小化其他结果,从而优化了计算效率。
量子计算机利用量子门来补充传统计算机中使用的逻辑门,以执行量子算法,例如用于分解大数的 Shor 算法和用于加速数据库搜索的 Grover 算法。这种能力使量子机器能够解决传统系统无法有效解决的问题。
量子计算的实用化将彻底改变许多领域,包括密码学、制药、人工智能、金融服务、气候建模等等。例如,虽然量子计算机对当前的加密方法构成威胁,但它们也可能为更安全的加密系统铺平道路。
此外,量子计算机在加速药物发现和改进材料科学方面具有巨大的潜力,增强了我们以前所未有的精度模拟分子相互作用的能力。
在金融领域,量子计算将通过同时评估多种情景来实现更复杂的投资策略。从医疗保健到电信和制造业等行业都将从量子计算带来的效率中获益匪浅,并可能节省成本,让消费者受益。
量子计算历史简要概述
量子计算的基本概念出现于 20 世纪 80 年代,但其起源尚不明确。美国物理学家保罗·贝尼奥夫 (Paul Benioff) 是最早描述量子力学计算模型的人之一,而理查德·费曼 (Richard Feynman) 则建议利用量子计算来模拟传统计算机难以有效建模的物理系统。
英国物理学家大卫·多伊奇做出了具有里程碑意义的贡献,包括量子图灵机和量子纠错原理,为未来的进步奠定了基础。
20 世纪 90 年代出现了 Shor 和 Grover 等关键量子算法,以及 IBM 和 MIT 等机构推出的早期量子计算机原型。
21 世纪初,微软开始探索拓扑量子理论,为 Majorana 1 芯片奠定了基础。具有里程碑意义的 D-Wave One 于 2011 年成为第一台商用量子计算机,随后谷歌的 Sycamore 于 2019 年实现量子霸权,以比传统系统快得多的速度解决复杂问题。
进入 2020 年代,IBM、谷歌和微软等大型科技公司在实用量子计算机竞赛中脱颖而出,设定了雄心勃勃的发展里程碑,旨在到 2035 年左右实现变革性突破。
微软意识到软件开发对硬件进步的补充至关重要,因此推出了Q# 编程语言,为其生态系统中的量子算法实现提供了高级语法。同样,IBM 的 OpenQASM 和 Google 的 Cirq 框架使开发人员能够创建量子应用程序,通常在部署到量子硬件之前利用模拟器。
微软的量子计算路线图和 Majorana 1
2025 年 2 月 19 日,微软推出了 Majorana 1 量子芯片,该芯片最初具有 8 个拓扑量子比特,但设计可扩展至 100 万个。这项创新因拓扑量子比特提供的卓越抗错误性而从竞争对手中脱颖而出,这是克服量子计算常见挑战的关键特性。
由于量子态非常脆弱,抗错误性至关重要。随着微软逐渐增加量子比特的数量,拓扑量子比特在最小化错误方面的优势将越来越明显。

Majorana 1 芯片的命名是为了向意大利物理学家 Ettore Majorana 致敬,他提出了 Majorana 粒子理论,即为拓扑量子比特提供基础属性的独特实体。这些量子比特固有的错误恢复能力源于 Majorana 粒子作为其反粒子的独特特性,这有助于更稳定的数据编码。
微软的 Majorana 1 芯片标志着创建实用量子系统的全面六步路线图的第二阶段。路线图的阶段包括:
里程碑 01:创造并控制马约拉纳粒子
用于诱导和操纵物质拓扑相的设备工程使得新型量子比特的发展成为可能。
里程碑 02:硬件保护的量子比特
此步骤引入了具有内置错误保护功能的受保护量子位,将量子位技术从模拟控制转变为数字控制。
里程碑 03:高质量硬件保护的量子比特
其目的是通过高质量、数字控制的量子比特的纠缠和编织来扩大操作规模,同时最大限度地减少错误。
里程碑 04:多量子比特系统
多面量子处理单元 (QPU) 通过组合量子位操作实现一系列量子算法。
里程碑 05:弹性量子系统
利用真正的逻辑量子位实现操作优势,为可靠的量子操作奠定了基础,并为量子超级计算奠定了基础。
里程碑 06:量子超级计算机
量子超级计算机将超越传统系统,最初可解决每秒 100 万个可靠的 rQOPS 的计算挑战,错误率不到万亿分之一,对于高级科学问题,可扩展到 1 亿个。
微软从第一个里程碑到第二个里程碑的进展耗时 18 个月,并坚定承诺在类似的时间范围内实现后续里程碑。这种乐观的前景表明,微软最早可以在 2031 年实现其最终目标,尽管根据每个阶段的复杂性,目标可能会延长到 2035 年。
微软在 Majorana 1 芯片上的研发工作引起了广泛关注,尤其是美国国防高级研究计划局 (DARPA)。微软是 DARPA 的实用级量子计算未开发系统 (US2QC) 计划中仅有的两家取得进展的公司之一,该计划旨在开发第一台实用级容错量子计算机。
量子计算的未来:我们离它还有多远?
确定量子计算机全面投入使用的确切时间仍是一个难题。目前,拥有数百个量子比特的系统已经投入使用,但实现一百万个稳定量子比特仍是一个遥远的目标。诸如减少误差和极端冷却需求等技术问题一直是一大难题。
谷歌沿用微软的模式,制定了六步发展路线图,前两个里程碑分别在2019年和2023年实现,后一个阶段谷歌展示了配备100个物理量子比特的量子计算机,并计划通过后续里程碑实现1, 000、10, 000、100, 000,最终达到100万个物理量子比特。

如果谷歌保持目前的发展速度,里程碑 3、4、5 和 6 可能分别在 2027 年、2031 年、2035 年和 2039 年实现,与微软的预测非常接近。
IBM 预计,到 2033 年,量子计算机将能够运行数千个逻辑量子位。这种方法侧重于在多个物理量子位上编码逻辑量子位,以最大限度地减少错误。虽然 IBM 和 Google 采取了类似的策略,但微软使用拓扑量子位的方法可能会因其固有的稳定设计而提供竞争优势。
在实用量子计算机普及之前,必须克服许多挑战,包括最小化错误率、解决退相干问题和克服可扩展性问题。当前运行的量子系统的量子比特有限,增加量子比特数量会增加复杂性。
要使量子计算从理论转变为实际应用,半导体和拓扑绝缘体等材料的进步至关重要。这些材料必须稳定、经济实惠且可重复,以支持大规模量子系统。
目前,运营成本和冷却要求限制了量子计算在政府和大型科技公司的部署,因此需要实现小型化和在更高温度下发挥功能的创新。
最后,不同系统之间缺乏标准化是一个长期挑战。由于各家科技公司都在追求独特的方法,统一的标准对于未来更广泛的整合至关重要。
结论
这篇社论概述了量子计算机的众多优势,提供了其发展简明的历史,并阐明了微软 Majorana 1 芯片的意义以及实用量子计算的当前时间表。
Majorana 1 的发布标志着向前迈出了实质性的一步,展示了微软在解决与错误率相关的关键挑战方面取得的进展,同时为实现百万量子比特的未来铺平了道路。这家科技巨头宣称量子计算不再是几十年后的事情,这是一个大胆而令人兴奋的说法。
量子计算的影响是巨大的,有望在医疗保健、材料科学和气候建模等领域取得进展。正如 ChatGPT 等人工智能技术开辟了新的可能性一样,量子计算的未来无疑也为整个社会带来了类似的变革潜力。
发表回复 ▼