传统认知中,AI计算以GPU为核心,但在超大规模计算架构中,这种理解并不完整。
在现代数据中心(尤其是AI集群)中,CPU承担三类关键职能:
👉 换言之:
GPU决定“算得快不快”,CPU决定“算得顺不顺”。
当AI集群规模从百卡迈向万卡,CPU需求呈现非线性增长。
在传统服务器中:
而在现代AI服务器(如8卡、16卡节点)中:
在以下场景尤为明显:
👉 结果是:
CPU不再是附属,而成为系统吞吐的关键约束点。
当前AI投资具备典型特征:
云厂商与科技巨头的采购逻辑是:
“不是价格敏感,而是供给敏感。”
即:
只要能交付,就愿意支付溢价锁定资源。
AI时代的数据中心负载发生显著变化:
| 传统负载 | AI负载 |
|---|---|
| Web服务 | 模型训练 |
| 数据库 | 向量检索 |
| 虚拟化 | 分布式推理 |
这些新负载的特征:
👉 结果是:
单机性能与总需求同步放大,形成“双重拉动”。
当前主流服务器CPU依赖先进节点:
但扩产受限于:
👉 结论:
短期无法通过扩产快速缓解缺货。
同一先进制程上竞争者众多:
其中GPU与AI芯片:
👉 代工厂策略是:
优先分配给“单位晶圆收益最大”的产品。
AMD采用Fabless模式:
带来三大限制:
而Intel虽有工厂,但:
👉 结果:
两大阵营均受约束,但AMD弹性更低。
芯片行业遵循核心逻辑:
利润优先,而非均衡供给。
表现为:
👉 在产能受限时:
厂商会优先保障数据中心客户,压缩消费级供给。
交付周期显著拉长,源于多重叠加因素:
同时叠加“牛鞭效应”:
👉 最终形成:
“越缺越抢,越抢越缺”的正反馈循环。
这一轮短缺不同于传统周期,其特征是:
| 传统周期 | 当前阶段 |
|---|---|
| 短期波动 | 长期结构变化 |
| 可逆 | 半不可逆 |
| 局部市场 | 全球竞争 |
未来趋势可能包括:
更多产能将流向服务器与高性能计算
AWS Graviton等正在分流部分需求
通过调度优化与数据处理效率提升降低依赖
若从更宏观视角审视,这场CPU紧缺并非简单供需失衡,而是:
算力体系从“通用计算”向“智能计算”迁移过程中的资源再定价。
当AI成为基础设施,CPU已从“PC核心部件”,演变为:
数据中心的调度中枢、算力网络的控制神经。
其紧缺,不只是产业问题,更是时代信号——
昭示着一个以算力为生产要素的新时代,正在加速到来。
咨询热线
400-000-8093