人工智能的每一回实现跨越式进展都跟算力的产生转变紧密相关2012年于竞赛里凭借超出10个百分点的优势获得冠军其背后是两块消费级GPU所提供的大约4.7 也就是每秒4.7万亿次浮点运算的训练能力到了2025年训练一个具备万亿参数级别的大模型所需要的算力已然超过10^25 FLOPS。依据在2024年发布的分析报告来看高级AI模型训练所使用的算力每3.4个月就会翻一番自2012年开始直至如今累计增长幅度超过了30万倍然而摩尔定律所描述的晶体管密度增长周期大概是18个月。这样的一个差距表明仅仅依靠传统芯片制程微缩已然没办法满足AI对于计算能力的爆炸式需求“AI算力”自身正从幕后的技术术语迈向公众视野的核心。什么是AI算力具备计算能力的算力是对计算系统每秒能够执行多少回基本运算的一种测量在人工智能范畴里特别是深度学习当中最为重点的运算种类是浮点数运算所以单位一般采用FLOPS Point Per 每秒浮点运算次数。其中常用的量级覆盖10^610^910^1210^15与10^18乃至于10^21。就像训练1750亿参数的GPT - 3模型官方论文所披露的总算力消耗大概是3.14×10^23 FLOPS也就是314 。以之为参照有一台超级计算机它每秒能够执行1 也就是1000万亿次这般情况下它要持续不间断地运行大约10年才可以完成同等的计算量。从CPU到GPU再到专用芯片AI算法早期像决策树、支持向量机这类主要依靠CPU去开展串行计算。2012年取得突破证实了GPU于并行处理矩阵乘法方面具备压倒性优势一块主流GPU的浮点运算能力相较于同期CPU高出两个数量级。从那以后GPU成了AI训练的事实标准。2016年谷歌发布了第一代TPU张量处理单元是专门为神经网络推理而设计其INT8算力达到23 。接着的每一代产品都不断抬高算力上限在2020年一款高端AI加速卡在FP16精度时的算力抵达312 到了2024年新一代产品的FP8算力冲破20 也就是20000 相较于四年前提升程度超过64倍。与此同时FPGA也即现场可编程门阵列和ASIC也就是专用集成电路在特定场景里寻获到了位置。比如字节跳动部署了自研的推荐系统推理芯片百度同样部署了自研的推荐系统推理芯片其能效比相较于通用GPU提升三至五倍。全球AI算力规模与分布也就是 IDC在 2025 年 3 月发布了《全球人工智能计算力指数报告》在 2024 年时全球 AI 服务器出货量达到了 167 万台那一时期的市场规模为 1220 亿美元。以 FP16 精度去折算全球已经部署的 AI 加速计算总算力大概是 350 。这里面用来进行大模型训练的计算资源占比大约是 60%推理任务方面约占 35%剩下的 5%用于传统机器学习以及科学计算。由区域分布状况进行查看美国约莫拥有180 中国是280 欧洲跟亚太其他地区两者加起来大概是90 。要加以说明的是中国的算力统计涵盖了超算中心里能够用于AI计算的份额以及诸多智算中心项目。截止到2025年年底中国已经建成并且投入运营的智算中心超过了50个其中单中心算力超过100 的有12个。训练与推理算力的两种消耗模式去训练一个有着千亿参数的大模型其算力的消耗是极其巨大的。就比如GPT - 4就是那个据传参数量约为1.8万亿的在业界有人估算它单次训练所需要的浮点运算量大概是2.1×10^25 FLOPS。要是采用2万张在当前属于主流的AI加速卡这种单卡FP16算力约2 的来组成集群再考虑到实际的利用率也就是通常在40%至60%这个范围完成训练大约是需要100天的。除了时间成本以外电力的消耗也是同样惊人的。训练一个有着千亿参数的模型其总的耗电约是1,300兆瓦时这等同于130个普通的中国家庭一年要用的电量。推理阶段当中尽管单次计算量是小的然而调用的频次是极高的。依据2025年的一项由第三方做出的测算某一主流的对话AI每次查询平均消耗2.9瓦时电力按照每日有10亿次查询来计算仅仅该服务一年的推理耗电就超过1,000吉瓦时。作为一种对比全球所有AI数据中心在2024年的年耗电量已超过100太瓦时近乎荷兰全国一年的用电总量。瓶颈与挑战算力并非无限眼下AI算力存在着三大方面的瓶颈物理极限、能耗墙以及互连带宽。首先芯片制程已然趋近于1纳米的量级量子隧穿效应以及漏电问题致使传统硅基晶体管开展微缩工作变得困难重重。其次算力跟功耗呈现出超线性的关系也就是把频率提升20%常常会造成功耗增幅超过50%。到了2025年单块AI加速卡的热设计功耗一般都能达到700瓦至1000瓦一个有着2万张卡的集群仅仅计算节点的峰值功率就会高达20兆瓦再加上冷却系统总功耗能够达到40兆瓦。首先大规模训练之时需要数千张乃至数万张卡一块儿协同开展工作卡之间的通信带宽变成了关键的瓶颈所在就这么个情况。当前情况下主流的与互连技术能够提供800 Gb/s至1.6 Tb/s的带宽然而呢跟计算单元内部每秒数太字节的带宽相比还是存在着巨大的差距的。正是这些挑战促使液冷、光互连、计算存储一体化等新技术得以快速在现实中落地就是这样的。未来方向能效与架构革命瞭望2030年诸多预测表明AI算力需求会增长至1000倍以上然而硬件能效每年只好适度提升约1.5倍。为了填补差距产业界与学术界正在探寻多条途径光是计算借助光子而非电子传送数据理论上能效相比电子芯片要高2至3个数量级存算一体架构把计算单元嵌入存储器消除了“存储墙”引发的能耗与延迟量子计算在特定的优化问题呈现出指数级加速潜力虽说通用量子AI还需要十几年。与此同时算法层面存在着低精度训练具体是指FP8、INT4其中还包括模型稀疏化、知识蒸馏等方面取得的进步这些进步在同等算力的情况下达成了更高的效率。能够确定的是AI算力会持续扮演智能时代核心资源的角色对其量说无论发展速递抑或是规模大小通通分别都会对人工智能效力的边界产生深刻的影响。