主页 > 民俗文化 >

绕开光刻机卡脖子 中国新型芯片问世

编辑:民俗文化 2025-12-31 09:29 浏览: 来源:www.liuxuekuai.com

随着AI时代的来临,算力集群规模正在逐步扩大,从万卡向更高的层次升级。在这个背景下,一支中国团队由北京大学人工智能研究院/集成电路学院的教授们领导,成功研制出基于阻变存储器的高精度、可扩展模拟矩阵计算芯片。这一突破在全球范围内首次将模拟计算的精度提升至24位定点精度,预示着未来同等任务下使用更少的计算卡成为可能。

这支团队的创新成果,打破了传统商用量产芯片的局限,计算精度从1%跃升至千万分之一,支持6G、具身智能及AI大模型训练等多个前沿场景。更为重要的是,这种新型芯片可以在28纳米及以上成熟工艺中量产,有效地绕开了光刻机的限制。

对于AI领域来说,算力与能耗的挑战一直是制约其发展的关键因素。随着摩尔定律的逐渐失效,数字计算的能耗问题愈发突出,GPU等传统数字计算芯片的优势正在逐渐减弱。而此次新型模拟计算芯片的研制成功,为应对这一挑战提供了新的思路。

模拟计算与数字计算是两种截然不同的计算范式。数字计算需要经过编码、处理、翻译等环节,计算过程繁琐且能耗较高。而模拟计算则直接对物理量进行计算,省去了中间环节,计算速度更快、能耗更低。此次新型芯片的成功研制,正是基于模拟计算的优势,实现了高效、低能耗的矩阵计算。

那么为什么此前没有选择模拟计算而是转向了数字计算呢?原因在于可靠性。数字计算的二进制系统只有0和1两种状态,这样的系统最为可靠。然而随着技术的发展和需求的增长,模拟计算的优势逐渐凸显出来。尤其是在复杂计算任务和大规模数据处理方面,模拟计算的效率和速度远超数字计算。

此次新型模拟计算芯片的研制成功,不仅为AI领域的发展提供了新的技术路线,也有助于减少对单一计算范式的依赖。该芯片可以支持多种前沿场景,包括6G通信、具身智能等,对于推动AI技术的发展具有重要意义。该芯片采用成熟工艺量产,也降低了生产成本,有助于推动模拟计算的普及和应用。

这支中国团队的成果为AI领域的发展带来了新的突破和启示。随着技术的不断进步和需求的增长,模拟计算或将成为未来计算领域的重要方向。该团队的研究成果不仅具有理论价值,也具有广泛的应用前景。数字计算的鲁棒性更强,抗干扰能力更佳,而早期的模拟计算则更容易受到噪声的影响,导致结果漂移。在模拟计算的发展历程中,精度问题一直是一个关键的痛点。孙仲及其团队的研究工作,为我们解决了这一难题。

孙仲团队成功将相对误差大幅压降至千万分之一(10^-7)的量级,这一成果受到广泛关注。他们的突破在于采用了一种新型芯片,这种芯片将精度提升了5个数量级,达到了24位的定点精度,相当于数字计算中的浮点32位(FP32)精度。

那么,他们是如何实现这一突破的呢?他们沿用了计算机领域的经典迭代优化算法,基于2019年提出的低精度电路来解方程。这个电路能够快速地找到能量函数的最优点,然后通过反复迭代修正,将精度提升至极高水平。

孙仲团队的研究以阻变存储器为介质,采用类比方式完成计算。他们设计的电路可以映射待解的矩阵方程至电路物理量,使电路自发求解矩阵方程。这种方法摒弃了传统硅基晶体管与逻辑门的用法,为模拟计算开辟了新的途径。

在研制过程中,团队遇到了许多困难,其中主要是认知层面的挑战。早期,他们自己也接受模拟计算“低精度”的标签,但在实际应用中,高精度是一个基本需求。为了突破精度瓶颈,他们不断尝试,设计了多款电路,并引入经典迭代优化及“位切片”算法,最终实现了高精度矩阵乘法。

这款新型芯片的创新点主要体现在三个方面:采用阻变存储器作为核心器件,面向矩阵方程求解,形成“现代模拟计算”范式;提出了一种全新的反馈电路,在不显著增加能耗和延时的前提下,将计算误差降低至极低水平;通过引入经典迭代优化和“位切片”算法,实现了高效的高精度矩阵乘法。

目前,这款芯片还处于实验室阶段,主要用于中等规模场景的应用。尽管尚无法与高端数字芯片在小规模任务上抗衡,但其巨大的潜力已经引起了行业的关注。随着技术的不断进步和研究的深入,我们有理由期待模拟计算在未来能够取得更大的突破,为人工智能、云计算等领域带来更多的可能性。

孙仲团队的研究工作为模拟计算领域带来了重大的突破,他们的成果为我们解决了一直困扰模拟计算的精度问题,为模拟计算的进一步发展打开了新的大门。我们的芯片优势:中等规模场景的最佳拍档

在技术的世界里,我们的芯片独树一帜,它的独特之处在于,它能在中等规模场景中发挥出卓越的优势。过小则性能无法完全展现,过大则暂时无法触及,而中等规模场景恰是其大展身手的舞台。

目前,主流AI训练多采用一阶方法,而二阶训练则以其更快的速度和更少的迭代次数引人瞩目。尽管二阶训练每次迭代都需要解一次矩阵方程,单次计算量大,对于数字芯片来说是个巨大的挑战。但我们的技术正好能够应对快速矩阵方程求解,因此理论上非常适合为二阶训练加速。

关于二阶训练的应用范围,孙仲表示,它并非仅限于大规模模型。无论是传统的神经网络还是大规模的参数模型,都可以采用二阶训练,其目的都是为了加速AI的训练。

除了AI训练和6G通信,我们的芯片还具备在具身智能、超级计算等领域的潜在应用。超级计算中的气象预报、量子力学、热扩散模拟等都是解微分方程的工作,这些方程在数字计算机上需要转化为矩阵方程才能求解。超算中心的大部分算力实际上都用于解矩阵方程,这也为我们在超算领域的应用提供了广阔的空间。

在超算领域的应用,需要我们扩大芯片的矩阵规模以适应大规模的问题求解。孙仲提到,虽然不会直接制作“百万×百万”的阵列,但我们会通过算法设计实现规模的扩展,以更高效的硬件解决更大规模的方程。

关于流片、代工厂生产等流程,孙仲强调,我们的芯片能够在现有的代工厂产线上制作,这一优势相较于量子计算和光计算尤为显著。后者因材料和工艺条件的差异,无法沿用当前的生产线。

对于落地消费端的问题,孙仲表示这需要完成多个关键环节:扩大阵列规模、完成大量的工程资源投入、进行可靠性验证,并赢得产业链伙伴的认可。尽管无法准确预测时间表,但团队内部已经在规划两年内将阵列规模从16×16扩大至128×128,并力争进一步扩展至512×512。

技术的跃升面临诸多挑战。随着芯片规模的扩大,寄生效应、良率控制、功耗分布等问题都会浮现。我们需要在器件、电路与工艺层面进行同步优化以应对这些挑战。

孙仲强调,新型芯片的出现证明了一条新路径的可行性。我们需要进行技术储备,以便在某一类计算任务(如超级AI)迫切需要进行矩阵方程求解时能够迅速响应。就像GPU在游戏领域的成功为它在AI领域的爆发奠定了基础,我们也必须储备技术以抓住未来的机遇。当机遇窗口开启时,技术储备将决定我们能否抓住下一波技术浪潮。