咨询服务热线:400-0698-860
电话:027-5972 8168
邮箱:info@chaoqing-i.com
总部:武汉东湖高新区金融港二路9号联发科武汉研发中心2楼
北京运营中心:北京市海淀区北三环西路99号西海国际中心1号楼907(分部)
上海:上海市徐汇区龙爱路27号506(分部)
超擎元景系列AI服务器,搭载 NVIDIA H20 GPU,6U8卡 Nvlink,是全新一代AI超融合架构平台,面向超大规模数据中心的强劲性能、极致扩展人工智能服务器,最强算力密度6U空间内搭载1块NVIDIA Hopper架构HGX-8GPU模组,系统支持4.0Tbps网络带宽,满足万亿级参数超大模型并行训练需求。搭载2颗Intel®第四代至强®可扩展处理器(TDP 350W),最高可达4TB系统内存,128TB NVMe高速存储,支持高达12个PCIe Gen5 x16扩展槽位,可灵活支持OCP 3.0、CX7、多种智能网卡等,构建面向超大模型训练、元宇宙、自然语言理解、推荐、AIGC等场景的最强AI算力平台。
强劲性能
8颗NVIDIA最新Hopper架构GPU
2颗Intel®第四代至强®可扩展处理器
集成Transformer引擎,大幅加速GPT大模型训练速度
极致能效
散热性能极致优化,风道解耦设计提升20%系统能效比
12V和54V N+N冗余电源分离供电设计,减少电源转换损耗
可选支持系统全液冷设计,液冷覆盖率高于80%,PUE<1.15
领先架构
节点内全PCIe 5.0高速链路,CPU至GPU带宽提升4倍
节点间高速互联扩展,4.0Tbps无阻塞带宽IB/RoCE组网
集群级优化架构设计,GPU: 计算IB: 存储IB=8:8:2
多元兼容
全模块化设计,一机多芯兼容,灵活配置支持本地和云端部署
支持大规模GPT-3/LLaMA/ChatGLM模型训练和推理
领先支持多样化的SuperPod解决方案,适用AIGC, AI4Science及元宇宙等丰富场景
公众号
电话
需求反馈