400-0698-860

产品中心

创新的算力与网络产品方案

元景系列H20 AI服务器CQ7688-L

超擎元景系列AI服务器,搭载 NVIDIA H20 GPU,6U8卡 Nvlink,是全新一代AI超融合架构平台,面向超大规模数据中心的强劲性能、极致扩展人工智能服务器,最强算力密度6U空间内搭载1块NVIDIA Hopper架构HGX-8GPU模组,系统支持4.0Tbps网络带宽,满足万亿级参数超大模型并行训练需求。搭载2颗Intel®第四代至强®可扩展处理器(TDP 350W),最高可达4TB系统内存,128TB NVMe高速存储,支持高达12个PCIe Gen5 x16扩展槽位,可灵活支持OCP 3.0、CX7、多种智能网卡等,构建面向超大模型训练、元宇宙、自然语言理解、推荐、AIGC等场景的最强AI算力平台。
产品类型
服务承诺
技术方案服务 集群网络部署与优化 现场支持与培训服务 算力/网络调优

产品参数

  • 型号名

    CQ7688-L
  • 高度

    6U
  • CPU

    2颗Intel®第四代至强®可扩展处理器, TDP 350W
  • GPU模块

    1块NVIDIA HGX-Hopper-8GPU模组
  • 内存

    32条DDR5 DIMMs内存, 速率最高支持4800MT/s
  • PCIe扩展

    支持10个PCIe 5.0 x16插槽(其中1个PCIe 5.0 x16插槽可替换为2个PCIe 5.0 x8速率的x16槽位); 可选支持Bluefield-3、CX7以及多种类型智能网卡
  • 本地存储

    最多支持24块2.5英寸SSD硬盘,其中最大支持16块NVMe
  • RAID支持

    可选支持RAID 0/1/10/5/50/6/60等, 支持Cache超级电容保护
  • vGPU支持

  • 操作系统

    Windows Server、RedHat® Enterprise Linux、SuSE® Linux Enterprise Server、CentOS、Ubuntu、Vmware等主流操作系统
  • 远程管理

    DC-SCM BMC管理模组
  • 电源

    2块12V 3200W及6块54V 2700W钛金级CRPS电源,支持N+N冗余

产品详情

超擎元景系列AI服务器,搭载 NVIDIA H20 GPU,6U8卡 Nvlink,是全新一代AI超融合架构平台,面向超大规模数据中心的强劲性能、极致扩展人工智能服务器,最强算力密度6U空间内搭载1块NVIDIA Hopper架构HGX-8GPU模组,系统支持4.0Tbps网络带宽,满足万亿级参数超大模型并行训练需求。搭载2颗Intel®第四代至强®可扩展处理器(TDP 350W),最高可达4TB系统内存,128TB NVMe高速存储,支持高达12个PCIe Gen5 x16扩展槽位,可灵活支持OCP 3.0、CX7、多种智能网卡等,构建面向超大模型训练、元宇宙、自然语言理解、推荐、AIGC等场景的最强AI算力平台。

 

强劲性能

8颗NVIDIA最新Hopper架构GPU

2颗Intel®第四代至强®可扩展处理器

集成Transformer引擎,大幅加速GPT大模型训练速度

 

极致能效

散热性能极致优化,风道解耦设计提升20%系统能效比

12V和54V N+N冗余电源分离供电设计,减少电源转换损耗

可选支持系统全液冷设计,液冷覆盖率高于80%,PUE<1.15

 

领先架构

节点内全PCIe 5.0高速链路,CPU至GPU带宽提升4倍

节点间高速互联扩展,4.0Tbps无阻塞带宽IB/RoCE组网

集群级优化架构设计,GPU: 计算IB: 存储IB=8:8:2

 

多元兼容

全模块化设计,一机多芯兼容,灵活配置支持本地和云端部署

支持大规模GPT-3/LLaMA/ChatGLM模型训练和推理

领先支持多样化的SuperPod解决方案,适用AIGC, AI4Science及元宇宙等丰富场景