400-0698-860

新闻中心

洞悉超擎数智品牌力与AI变革

DeepSeek对算力硬件需求的影响有哪些?

时间:2025-02-17
来源:超擎数智
阅读量:628
分享:

直接需求驱动:算力规模扩张的量化影响

 

1、服务器需求激增:从千卡集群到万卡智算中心

 

DeepSeek的训练和推理需求推动了服务器市场的快速增长。例如,DeepSeek-R1模型的训练需要消耗约3.2万GPU小时(基于A100),若扩展至万亿参数模型,算力需求可能增长10倍。根据TrendForce预测,2024年全球AI服务器出货量将突破200万台,年复合增长率达22%,其中30%用于大模型训练。

 

2、光模块升级需求:从400G到1.6T的带宽竞赛

 

随着算力集群规模的扩大,互联带宽需求显著提升。千卡GPU集群中,若采用全连接拓扑,需至少40Tbps集群内带宽。400G光模块可将延迟降低至2μs以下,但800G/1.6T模块将在2025年成为主流,市场规模预计从2023年的25亿美元增至2027年的80亿美元。

 

3、配套硬件协同效应:存储与散热的乘数增长

 

除了服务器和光模块,存储设备(如NVMe SSD)、液冷系统(应对高功耗散热)等硬件也将因算力集群扩张而受益。例如,液冷技术因高效散热能力,正在成为数据中心的主流选择。

 

技术演进:硬件架构的颠覆性变革

 

1、服务器架构优化

 

DeepSeek对算力效率的高要求可能推动定制化服务器设计。例如,为了满足大模型的高计算需求,服务器架构可能从传统的Scale-up向Scale-out转变。这种架构优化将带动行业技术标准的迭代。

 

2、光模块速率跃迁

 

AI算力集群对网络带宽的需求呈指数级增长,光模块从100G向400G/800G升级成为必然。DeepSeek的大规模部署可能加速光模块厂商的技术研发和产能释放。

 

3、绿色算力的技术突破

 

在高功耗背景下,液冷、高效电源等节能技术的渗透率将进一步提升。硬件供应商需要在兼顾性能的同时,优化能效。同时,算力需求将呈现两极分化趋势:

 

训练端:万亿参数模型推动智算中心向E级算力(1000PFLOPS)迈进,需部署超大规模HPC架构。

 

推理端:模型轻量化(如DeepSeek-Mobile)催生低功耗AI芯片需求,ARM架构处理器市占率或突破35%。

 

结语:从硬件军备竞赛到生态体系竞争

 

DeepSeek引发的算力硬件需求已超越单一产品升级,正推动全产业链的技术范式变革:

 

短期(1-3年):400/800G光模块、液冷服务器、HBM3内存将成为明确受益赛道,国产替代窗口期打开;

 

中期(3-5年):存算一体芯片、CPO光互联、量子计算可能颠覆现有架构;

 

长期(5年以上):AI算力将演化为国家核心基础设施,硬件供应链的安全性与自主可控性成为战略制高点。

 

在此过程中,硬件厂商需从“规格参数竞争”转向“系统级能效优化”,而DeepSeek等AI领军企业的技术路线选择,或将重新定义算力产业的游戏规则。