“计算机发展正面临一个非常重要的变化,就是我们正在步入的泛在计算,它一个重要特点是从人使用计算机变成机器使用计算机,对智能计算的要求越来越迫切。”9月14日,2023全球AI芯片峰会上,清华大学教授、中国半导体行业协会副理事长魏少军表示。

以大模型为代表的生成式AI年内大火,成为资本追逐的对象。但随着AI训练和计算需求增大,人们很快发现,AI算力成为瓶颈。这不仅体现在高算力AI训练GPU一片难求,还体现在现有芯片难以满足高性能计算。

魏少军认为,AI需要新的芯片架构,以实现灵活的软硬件编程能力。目前,芯片已难以靠工艺进步实现高性能计算,通过应用定义软件、软件定义芯片促成软硬件有机融合,是提高计算效率的可行路径。软件定义芯片技术还有望成为我国集成电路设计业摆脱跟随模仿、实现赶超提供一条全新技术路线。

AI呼唤新芯片架构

算力和算法成为当前AI训练和AI推理的关键一环,源于深度神经网络出现后对AI业态的重构。业界探索AI过程中,算法和算力均出现棘手问题。

魏少军介绍,迈入智能化时代,业界曾探索过类脑计算路径,但遇到一个难点,类脑计算依赖于人们对人脑的理解,在对人脑的理解不足够深的情况下,可能只能模仿一些细胞层面的东西。而在深度神经网络出现后,则出现了算法、数据、算力三个基本要素。

深度神经网络发展也涌现新的问题。魏少军表示,随着深度神经网络发展,算法不断演进,新算法层出不穷,此外,一种算法对应一种应用,没有统一的算法。在人脑工作时如何使用算法尚未明晰的情况下,用机械的计算方式模拟人类认知过程出现了难以解决的问题。当把复杂计算从云端迁至边缘端的时候时,还会发现机器并不具备足够的算力和能量。

为解决以上问题,魏少军表示,AI可能需要新的计算方式,深度学习需要一款“智能计算引擎”,其可编程能力适应各类应用,且为计算和存储密集型,还能实现数据从“云端”向“边缘端”迁移的能力。AI呼唤新的芯片架构具有较高灵活性,这个新架构考虑到硬件和软件两个部分,使硬件和软件形成比较有效的可编程性。


据魏少军介绍,基于软硬件可编程性,可把AI芯片分为几类。包含CPU、DSP等在内的处理器的硬件可编程性较弱,软件可编程性较强;ASIC、SoC等专用集成电路运行过程通常不需软件,无灵活性,软硬件可编程性均较弱;FPGA、EPLD等可编程逻辑器件在硬件编程方面则有高灵活性,但软件编程性弱,且成本高、价格贵。目前,业内正探索的新型架构则具通用性且有高灵活性,软硬件可编程性高,可扩大用量、降低成本。

“应用定义软件,软件定义芯片,是计算芯片技术的一次根本变革。”魏少军表示,中国在软件定义芯片领域突破早于并优于世界同行,目前已实现芯片架构和功能纳秒级重构,使硬件电路可随软件算法的变化而快速变化,软件定义芯片技术是能替代ASIC和FPGA的新型电路架构技术。

大算力时代

AI时代,算力爆发。但在半导体继承接近物理极限,摩尔定律放缓情况下,通过制程提升提高芯片性能的路径越来越难走通,且现有芯片架构也面临难以供给高算力的问题。

魏少军表示,人类对更高算力的追求在过去十年从未停滞,高性能计算机的计算能力已进入E级,即每秒可进行百亿亿次数学运算,随着全球数据量超100ZB,对Z级计算能力的需求愈发迫切。而依靠工艺技术进步几乎已无法实现更高性能的计算,若超算速度达Z级,耗电量与投资量必然巨大,难以落地。2022年世界第一的超算E级计算机的GPU芯片使用6nm工艺,若沿着现有路线发展,即便用尚未量产的3nm工艺也难落地现下一代超算Z级。

“从现有计算芯片的主流路线推演,难以满足Z级超算的性能、功耗和成本需求。”魏少军表示。现有计算芯片包括CPU、FPGA、GPU等,计算芯片计算资源占比至0.1%以下,计算资源利用率低至5%以下,数据传输耗能高达90%。

基于算力增长的需求,芯片架构有待变革。魏少军表示,智能计算芯片应有学习和成长能力,有算法和软件自主演进能力、架构动态变换能力、可编程性等,且有应具备高能量效率和高计算效率,避免使用指令这类低效率架构。