NVIDIA® ConnectX®-8 SuperNIC™ 将800G网络带宽引入AI工厂与云数据中心,其C8180(900-9X81E-00EX-DT0)型号专门针对大规模AI计算负载进行优化。该网卡同时支持InfiniBand和以太网协议,最高速率达800Gb/s,为万亿参数级GPU集群和AI数据平台提供端到端的连接。基于PCIe Gen6接口并集成先进的拥塞控制与SHARP网络计算能力,它在提升系统效率的同时,也帮助构建更可持续的高性能计算环境。
- 双协议800G高速接口 — 支持InfiniBand (800/400/200/100Gb/s) 及 Ethernet (400/200/100/50/25Gb/s),提供800Gb/s总带宽。可配置为1x 800G或拆分端口,适应不同规模的AI集群布线需求。
- PCIe Gen6 与 Multi-Host 架构 — 采用PCIe Gen6主机接口,最高支持48个通道。NVIDIA Multi-Host™ 技术允许最多四个主机共享一个PCIe交换机域,提升资源利用率。
- RDMA 与 GPUDirect 存储加速 — 内置RDMA和RoCEv2加速引擎,配合GPUDirect RDMA和GPUDirect Storage技术,消除数据在GPU、存储和网络间的拷贝瓶颈,提升分布式AI训练效率。
- SHARP 在网计算支持 — 扩展NVIDIA SHARP™能力,在InfiniBand网络中执行规约等集合通信卸载,减少数据在CPU和GPU之间的搬移,加速大规模并行计算。
- 硬件级网络安全与精确时钟 — 支持安全启动、闪存加密及设备认证。提供IPsec、MACsec、PSP在线加密硬件卸载。集成IEEE 1588v2 (PTP) 与SyncE,满足G.8273.2 Class C时钟同步要求。
- 可编程拥塞控制与遥测 — 支持基于遥测的拥塞控制,结合MPI卸载、乱序重组、突发缓冲卸载等特性,优化HPC和AI工作负载的长尾延迟与整体吞吐。
| Feature | Specification |
|---|---|
| 产品型号 (OPN) | C8180(900-9X81E-00EX-DT0) |
| 支持的网络协议 | InfiniBand, Ethernet |
| 最大总带宽 | 800 Gb/s |
| InfiniBand 速率 | 800/400/200/100 Gb/s |
| Ethernet 速率 | 400/200/100/50/25 Gb/s |
| 主机接口 | PCIe Gen6 (最高48 lanes) |
| 端口形态选项 | PCIe HHHL 1P x OSFP; PCIe HHHL 2P x QSFP112; Dual ConnectX-8 Mezzanine; OCP 3.0 TSFF 1P x OSFP |
| 最大I/O通道数 | 1600万 |
| MTU范围 | 256 - 4096字节 |
| RoCE / RDMA | 支持 (RoCEv2) |
| NVIDIA 技术集成 | GPUDirect RDMA, GPUDirect Storage, SHARP |
| 网络安全 | 安全启动, 硬件信任根, 闪存加密, 设备认证(SPDM 1.1); 内联加密: IPsec, MACsec, PSP |
| 精确时钟 | IEEE 1588v2 (PTP), G.8273.2 Class C, SyncE (G.8262.1 eEEC), PTM, PPS可配, 时间触发调度 |
| 管理与带外 | NC-SI, MCTP (SMBus/PCIe), PLDM (DSP0248, DSP0267, DSP0218, DSP0257), SPDM (DSP0274) |
| 网络启动 | InfiniBand / Ethernet PXE, iSCSI, UEFI |
| 调试接口 | SPI to Flash, JTAG (IEEE 1149.1 / 1149.6) |
| Orderable Part Number (OPN) | Description | Key Differentiator |
|---|---|---|
| [-] | [-] | [-] |
| [-] | [-] | [-] |
| [-] | [-] | [-] |
- 免费方案设计 — 根据客户应用场景提供网络架构建议与配置指导。
- 选型报价 — 快速响应,提供详细的配置清单与商务报价。
- 现场调试 — 专业工程师支持现场安装与初期调优服务。
- 原厂质保 — 1 年硬件保修,享受 NVIDIA 官方售后支持。
Q: C8180(900-9X81E-00EX-DT0) 是否支持同时使用 InfiniBand 和以太网,还是需要固定选择一种协议?
A: 该网卡硬件同时支持两种协议,但实际运行模式需要根据连接的交换机及固件配置确定,在特定时刻只能运行于 InfiniBand 或以太网模式之一,无法双协议并发。
Q: 800G 速率下,网卡的端口是如何配置的?可以拆分为多个低速端口使用吗?
A: 根据端口形态不同,可支持 1 个 800G OSFP 端口,或 2 个 400G QSFP112 端口。同时设备支持拆分端口功能,最多可将 800G 拆分为 8 个独立通道,用于连接多个低速设备。
Q: 管理维护方面,这款网卡支持哪些带外监控接口?
A: 它支持标准的 NC-SI 带外管理,并通过 MCTP over SMBus/PCIe 及 PLDM 协议提供详细的监控、固件更新及 FRU 信息查询,符合 Redfish 规范,便于集成到现有数据中心管理平台。
Q: 针对 AI 训练场景,除了高带宽,网卡还有哪些具体优化?
A: 除了 800G 高吞吐外,它还集成了 GPUDirect RDMA、SHARP 在网计算、高级拥塞控制和 MPI 加速等特性,能有效减少分布式训练中的通信延迟和 CPU 开销,提升集群的线性加速比。