NVIDIA® ConnectX®-6 InfiniBand 智能网卡

200Gb/s HDR InfiniBand 和以太网适配器卡,提供 卓越的数据传输性能、智能卸载和网络内计算,从而为高性能计算、 云、Web 2.0、存储和机器学习应用带来高投资回报

  • VPI网卡:产品型号: NVIDIA CONNECTX-6 MCX653106A
  • VPI网卡:网络类型: InfiniBand 智能适配卡
  • VPI网卡:端口数量: 2
  • VPI网卡:端口速率: HDR 200Gb/s
  • VPI网卡:PCIe支持: 3.0 x 16 / 4.0 x 16
关闭
产品咨询
客服热线:010-6894-9110

NVIDIA® ConnectX®-6 InfiniBand 智能网卡提供两个 200Gb/s 端口用于InfiniBand 和以太网连接,具有低于 600 纳秒的延迟,每秒传输2 亿条消息,可以为要求最严苛的数据中心应用提供高性能和高灵活的解决方案。


NVIDIA CONNECTX-6 是对行业领先的 Mellanox ConnectX 系列适配器卡的突破性补充。除 了以往版本中所有创新功能,ConnectX-6 还提供了许多增强功能,以进一步提高性能和可扩展性。ConnectX-6 VPI 支持 HDR、HDR100、EDR、FDR、QDR、DDR 和 SDR InfiniBand 速度,以及 200、100、50、 40、25 和 10Gb/s 以太网速度。


HPC 环境

在过去十年中,Mellanox 不断将 HPC 性能 推向新的创纪录高度。随着 ConnectX-6 适 配器卡的推出,Mellanox 继续凭借新功能 特性和前所未有的性能为 HPC 市场铺平 道路。

ConnectX-6 VPI 提供业界最高的吞吐量和 消息速率。作为第一款提供 200Gb/s HDR InfiniBand、100Gb/s HDR100 InfiniBand 和 200Gb/s 以太网速度的适配器,ConnectX-6 VPI 是引领 HPC 数据中心迈向百亿亿次级 性能和可扩展性的完美产品

ConnectX-6 支持不断发展的协同设计模式,该模式让网络成为分布式处理 器。借助其网络内计算和网络内内存功能,ConnectX-6 可将更多计算任务卸载到网络,从而节省 CPU 周期并提高网络 效率。

ConnectX-6 VPI 同时利用 IBTA RDMA(远程 数据内存访问)和 RoCE(基于融合以太网的 RDMA)技术来提供低延迟和高性 能。ConnectX-6 通过提供端到端数据包级流 量控制来进一步增强 RDMA 网络能力。


机器学习和大数据环境

数据分析已经成为许多企业数据中心、云 和超大规模 (Hyperscale) 平台中的一项重要 功能。机器学习特别依赖于高吞吐量和低 延迟来训练深度神经网络,并提高识别和 分类的准确性。作为第一款提供 200Gb/s 吞 吐量的适配器卡,ConnectX-6 是为机器学习 应用程序提供所需性能和可扩展性级别的 完美解决方案。

ConnectX-6 利用 RDMA 技术来提供低延迟和高性能。ConnectX-6 通过提供端到端数 据包级流量控制来进一步增强 RDMA 网络 能力。


安全

通过提供数据块级加密,ConnectX-6 为网 络安全提供了关键性创新。传输的数据在存储或检索时进行加密和解密。通过 ConnectX-6 硬件对基于 IEEE XTS-AES 标 准的加密/解密进行卸载,从而减少延 迟和卸载 CPU。因为可以使用不同的

加密密钥,ConnectX-6 数据块级加密卸 载启用了共享相同资源的用户之间的 保护。

通过在适配器中执行加密,ConnectX-6 还使得在网络中的其他位置无需额外 加密,如在存储中。此外,ConnectX-6 还支持联邦信息处理标准 (FIPS) 合规 性,减少了对自加密磁盘的系统需 求。凭借该功能,客户可以自由选择 他们偏好的存储设备,包括可按字节 寻址和 NVDIMM(否则将在没有加密的 情况下使用)。


存储环境

NVMe 存储设备发展势头迅猛,提供 非常快速的存储介质访问。不断发展 的 NVMe over Fabric (NVMeOF) 协议利用 RDMA 连接从远程高效地访问 NVMe 存 储设备,同时让端到端 NVMe 模式保持 最低延迟。通过其 NVMeOF 目标端和发起端卸载,ConnectX-6 为 NVMeoF 带来 了进一步优化,提高了 CPU 利用率和 可扩展性。


云和 Web2.0 环境

电信、云和 Web2.0 客户在基于软件定 义网络 (SDN) 的环境中开发其平台, 利用其服务器上操作系统中的虚拟交 换功能,在其网络的管理和路由协议 中实现最大的灵活性。

开放式虚拟交换机 (OVS) 是虚拟交换 机的一个示例,允许虚拟机在它们内 部以及与外部世界之间进行通信。传 统驻留在 Hypervisor 中的软件虚拟交换 机占用大量 CPU 资源,会影响系统性 能,并妨碍将可用 CPU 全部用于计算 功能。

为了解决这一问题,ConnectX-6 提供 了 Mellanox 加速交换与数据包处理 (ASAP2) Direct 技术,通过在网卡硬件 中处理数据层面来卸载虚拟交换机/虚 拟路由器,同时保持控制层面不被修 改。因此,显著提高了虚拟交换机/虚拟路由器的性能,而不会产生相关 的 CPU 负载。

ConnectX-5 和 ConnectX-6 支持的虚拟 交换机/虚拟路由器卸载功能包括叠 加 (Overlay) 网络标头的封装和解封, 以及内部数据包的无状态卸载、数据包头重写(实现 NAT 功能)、 Hairpin 等等。

此外,ConnectX-6 提供智能灵活管线 功能,包括可编程的灵活解析器和 灵活的匹配动作表,可实现面向未 来协议的硬件卸载。


NVIDIA Socket Direct

Mellanox ConnectX-6 还能为支持 PCIe Gen3 的服务器提供 200Gb/s 的传输速 率。该适配器的 32 通道 PCIe 总线划 分为两个 16 通道总线,其中一个总 线可通过 PCIe x16 边缘连接器访问,另 一个总线通过 x16 并行连接器连接到 辅助 PCIe 连接卡。这两张卡应该安 装到两个相邻的 PCIe x16 插槽中,并使用专用线束连接。

与 NVIDIA产品相关的图片或视频(完整或部分)的版权均归 NVIDIA Corporation 所有。




新功能特性

–  高性能

–  每端口 200Gb/s 连接速度

–  大带宽 200Gb/s

–  高达 2 亿条消息/秒

–  低于 0.6 微秒的延迟

– 数据块级 XTS-AES 模式硬件加密

– FIPS 兼容适配器卡

– PCIe Gen3 和 PCIe Gen4 支持


优势

– 行业领先的吞吐量、低延迟、低 CPU利用率和高消息速率

– 面向计算和存储基础架构的最高性能和最智能的结构

– 高级存储功能,包括数据块级加密及校验和卸载

– 面向经济型机架设计的主机链接技术

– 面向基于 x86、Power、ARM、GPU 和FPGA 的计算和存储平台的智能互连

– 支持灵活管线可编程能力的智能网络适配器

– 虚拟化网络方面的尖端性能,包括网络功能虚拟化 (NFV)

– 促成高效的服务链能力

– 高效的 I/O 整合,降低数据中心的成本和复杂度


PCI EXPRESS 接口

– PCIe Gen 4.0、3.0、2.0、1.1 兼容

– 2.5、5.0、8、16GT/s 链路速率

– 32 个 PCIe Gen3 通道,或 16 个 PCIe Gen4


通道

– 支持 PCIe x1、x2、x4、x8 和 x16 配置

– PCIe 原子

– TLP(事务层数据包)处理提示 (TPH)

– PCIe 交换机下行端口控制 (DPC) 启用以实现 PCIe 热插拔

– 高级错误报告 (AER)

– 用于对等安全通信的访问控制服务 (ACS)

– 进程地址空间 ID (PASID) 地址转换服务 (ATS)

– IBM CAPIv2(一致的加速器处理器接口)

– 支持 MSI/MSI-X 机制


操作系统/发行版*

– RHEL、SLES、Ubuntu 及其他主要 Linux


发行版

– Windows

– FreeBSD

– VMware

– OpenFabrics 企业发行版 (OFED)

– OpenFabrics Windows 发行版 (WinOF-2)


连接

– 与 InfiniBand 交换机的互操作性(最高HDR,作为 4 个 50Gb/s 数据速率通道)

– 与以太网交换机的互操作性(最高200GbE,作为 4 个 50Gb/s 数据速率通道)

– 具有 ESD 保护的无源铜缆

– 用于光纤和有源线缆支持的供电连接器


INFINIBAND

– HDR/HDR100/EDR/FDR/QDR/DDR/SDR

– 符合 IBTA 规范 1.3

– RDMA、发送/接收语义

– 基于硬件的拥塞控制

– 原子操作

– 1600 万 I/O 信道

– 256 至 4K 字节 MTU,2G 字节消息

– 8 个虚拟通道 + VL15


以太网

– 200GbE/100GbE/50GbE/40GbE/25GbE/10GbE/1GbE

– IEEE 802.3bj、802.3bm 100 Gb 以太网

– IEEE 802.3by、以太网联盟 25、50 Gb以太网,支持所有 FEC 模式

– IEEE 802.3ba 40 Gb 以太网

– IEEE 802.3ae 10 Gb 以太网

– IEEE 802.3az 高能效以太网

– 基于 IEEE 802.3ap 的自动协商和KR启动

– 专有以太网协议(20/40GBASE-R2、50/56GBASE-R4)

– IEEE 802.3ad、802.1AX 链路聚合

– IEEE 802.1Q、802.1P VLAN 标记和优先级

– IEEE 802.1Qau (QCN) 拥塞通知

– IEEE 802.1Qaz (ETS)

– IEEE 802.1Qbb (PFC)

– IEEE 802.1Qbg

– IEEE 1588v2

– 巨型帧支持 (9.6KB)


增强的功能特性

– 基于硬件的可靠传输

– 集合操作卸载

– 矢量集合操作卸载

– PeerDirect™ RDMA(亦称 GPUDirect通信加速

– 64/66 编码

– 扩展可靠连接传输 (XRC)

– 动态连接传输 (DCT)

– 增强的原子操作

– 高级内存映射支持,允许用户模式内存 注册和重新映射 (UMR)

– 按需分页 (ODP)

– MPI 标签匹配

– 集合协议卸载

– 支持自适应路由的无序 RDMA

– 突发缓冲区卸载

– 网络内内存免注册 RDMA 内存访问


CPU 卸载

–  基于融合以太网的 RDMA (RoCE)

– TCP/UDP/IP 无状态卸载

– LSO、LRO 校验和卸载

– RSS(也在封装的数据包上)、TSS、HDS、VLAN 和 MPLS 标记插入/剥离、 接收流转向

–  面向内核旁路应用程序的数据层面开发 工具包 (DPDK)

–  使用 ASAP2 的开放式虚拟交换机 (OVS) 卸载

• 灵活的匹配动作流表

• 隧道封装/解封

–  智能中断合并

–  支持 NAT 路由器硬件卸载的标头重写 存储卸载


存储卸载

–  针对目标机器的 NVMe over Fabric 卸载

–  纠删码卸载 - 卸载 Reed Solomon 计算

– T10 DIF - 针对进口和出口流量的线速签名移交操作

– 存储协议:SRP、iSER、NFS RDMA、SMB Direct、 NVMf


叠加 (Overlay) 网络

– 基于叠加 (Overlay) 网络的 RoCE

– 用于叠加 (Overlay) 网络隧道协议的无状态 卸载

– VXLAN、NVGRE 和 GENEVE 叠加 (Overlay) 网络的封装和解封硬件卸载


基于硬件的 I/O 虚拟化

–  单根 IOV

– 地址转换和保护

– VMware NetQueue 支持

– SR-IOV:最多 1K 虚拟功能

– SR-IOV:每主机最多 16 个物理功能

– 虚拟化层次结构(例如 NPAR 和多主机, 启用时)

• 虚拟化物理端口上的物理功能

• 每个物理功能上的 SR-IOV

– 用户可编程且可配置的 QoS

– 保证虚拟机的 QoS


HPC 软件库

– Open MPI、IBM PE、OSU MPI (MVAPICH/2)、Intel MPI

– Platform MPI、UPC、Open SHMEM管理和控制

– NC-SI over MCTP over SMBus 和 NC-SI over MCTP over PCIe - 基板管理控制器接口

– 用于管理 eSwitch 的 SDN 管理接口

– 用于设备控制和配置的 I2C 接口 – 通用 I/O 引脚

– SPI 闪存接口

– JTAG IEEE 1149.1 和 IEEE 1149.6


远程启动

– 通过 InfiniBand 远程启动

– 通过以太网远程启动

– 通过 iSCSI 远程启动

– 统一可扩展固件接口 (UEFI)

– 预执行环境 (PXE)




微信公众号