咨询服务热线:400-0698-860
电话:027-5972 8168
邮箱:info@chaoqing-i.com
总部:武汉东湖高新区金融港二路9号联发科武汉研发中心2楼
北京超擎数智科技有限公司:北京市海淀区北三环西路99号西海国际中心1号楼907
上海超擎数智科技有限公司:上海市徐汇区龙启路158号1幢灿星大厦19层1911
DeepSeek的训练和推理需求推动了服务器市场的快速增长。例如,DeepSeek-R1模型的训练需要消耗约3.2万GPU小时(基于A100),若扩展至万亿参数模型,算力需求可能增长10倍。根据TrendForce预测,2024年全球AI服务器出货量将突破200万台,年复合增长率达22%,其中30%用于大模型训练。
随着算力集群规模的扩大,互联带宽需求显著提升。千卡GPU集群中,若采用全连接拓扑,需至少40Tbps集群内带宽。400G光模块可将延迟降低至2μs以下,但800G/1.6T模块将在2025年成为主流,市场规模预计从2023年的25亿美元增至2027年的80亿美元。
除了服务器和光模块,存储设备(如NVMe SSD)、液冷系统(应对高功耗散热)等硬件也将因算力集群扩张而受益。例如,液冷技术因高效散热能力,正在成为数据中心的主流选择。
DeepSeek对算力效率的高要求可能推动定制化服务器设计。例如,为了满足大模型的高计算需求,服务器架构可能从传统的Scale-up向Scale-out转变。这种架构优化将带动行业技术标准的迭代。
AI算力集群对网络带宽的需求呈指数级增长,光模块从100G向400G/800G升级成为必然。DeepSeek的大规模部署可能加速光模块厂商的技术研发和产能释放。
在高功耗背景下,液冷、高效电源等节能技术的渗透率将进一步提升。硬件供应商需要在兼顾性能的同时,优化能效。同时,算力需求将呈现两极分化趋势:
训练端:万亿参数模型推动智算中心向E级算力(1000PFLOPS)迈进,需部署超大规模HPC架构。
推理端:模型轻量化(如DeepSeek-Mobile)催生低功耗AI芯片需求,ARM架构处理器市占率或突破35%。
DeepSeek引发的算力硬件需求已超越单一产品升级,正推动全产业链的技术范式变革:
短期(1-3年):400/800G光模块、液冷服务器、HBM3内存将成为明确受益赛道,国产替代窗口期打开;
中期(3-5年):存算一体芯片、CPO光互联、量子计算可能颠覆现有架构;
长期(5年以上):AI算力将演化为国家核心基础设施,硬件供应链的安全性与自主可控性成为战略制高点。
在此过程中,硬件厂商需从“规格参数竞争”转向“系统级能效优化”,而DeepSeek等AI领军企业的技术路线选择,或将重新定义算力产业的游戏规则。
公众号
电话
需求反馈