不是GPU不行,是CPU开始抢C位
现在AI服务器的配置比例在变,TrendForce最新调研显示,AI服务器中CPU与GPU的配比正从1:4向1:1.5收敛,部分推理场景甚至出现"CPU需求增速反超GPU"的罕见信号。
这背后其实就是AI从算得多开始转向调得好。多模型协作、智能体任务、实时推理,这些都不是拼单卡性能,而是拼系统效率。谁负责这个?还是CPU。
现在的逻辑是:GPU负责爆发力,CPU负责组织能力。没有CPU把任务分好、资源调好,GPU再强也发挥不出来。这也是为什么全球云厂商开始把通用计算资源重新提到一个很高的位置。还有一点容易被忽略:边缘推理。很多轻量AI应用,其实更依赖CPU,功耗、稳定性、部署灵活性更重要,这块也是增量。
再往国内看,就更有意思了。一边是国产替代在推进,另一边是AI基础设施升级,刚好把CPU的重要性重新拉了出来。像海光这种走x86路线的,本身生态兼容性强,更容易进主流服务器体系。
AI不是GPU的独角戏,是需要异构协同、系统协作的。谁站在调度中枢,谁就更有想象空间。
