带 Virtual Protocol Interconnect® 的单/双端口适配器,带有 Virtual Protocol Interconnect (VPI) 的 ConnectX-3 适配器卡支持 InfiniBand 和以太网连接,为企业数据中心、高性能计算和嵌入式环境中使用的 PCI Express Gen3 服务器提供性能最高和最灵活的互连解决方案。
优势
– 一个用于 InfiniBand、10/40/56 Gig 以太网或数据中心桥接架构的适配器
– 世界一流的集群、网络和存储性能
– 有保证的带宽和低延迟服务
– I/O 整合
– 虚拟化加速
– 高能效
– 可扩展到数万个节点
主要功能特性
– 虚拟协议互连
– 1 微秒 MPI ping 延迟
– 每端口最高 56Gb/s InfiniBand 或 40/56Gb 以太网
– 提供单端口和双端口选项
– PCI Express 3.0(高达 8GT/s)
集群数据库、并行处理、事务性服务和高性能嵌入式 I/O 应用程序会实现显著的性能改进,从而缩短完成时间并降低每操作成本。支持 VPI 的 ConnectX-3 还可以通过一种硬件设计来服务于多种架构,从而简化系统开发。
Virtual Protocol Interconnect
支持 VPI 的适配器使任何标准的网络、集群、存储和管理协议均可在利用整合软件栈的任何聚合网络上无缝运行。凭借自动感知功能,每个 ConnectX-3 端口可以识别 InfiniBand、以太网或数据中心桥接 (DCB) 架构,并在其上运行。FlexBoot™ 通过允许从远程 InfiniBand 或 LAN 存储目标引导服务器,提供了额外的灵活性。带 VPI 和 FlexBoot 的 ConnectX-3 简化了 I/O 系统设计,使得 IT 经理能够更方便地部署可解决动态数据中心难题的基础架构。
世界一流的性能
InfiniBand — ConnectX-3 为性能驱动型服务器和存储集群应用程序提供低延迟、高带宽和高计算效率。通过从 CPU 卸载协议处理和数据移动开销(如 RDMA 和发送/接收语义)实现高效计算,从而为应用程序提供更多处理器能力。CORE-Direct™ 通过卸载数据广播和收集等应用程序开销,以及全局同步通信例程,带来了更高水平的性能提升。GPU 通信加速通过消除不必要的内部数据复制提供了额外的效率,从而大幅缩短应用程序运行时间。ConnectX-3 高级加速技术可实现更高的集群效率,并且可大规模地扩展到数万个节点。
基于融合以太网的 RDMA — 利用 IBTA RoCE 技术的 ConnectX-3 通过以太网网络提供类似的低延迟和高性能。利用数据中心桥接功能,RoCE 通过第 2 层以太网提供高效的低延迟 RDMA 服务。借助现有以太网基础架构中的链路级别互操作性,网络管理员可以利用现有数据中心架构管理解决方案。
套接字加速 — 利用 TCP/UDP/IP 传输的应用程序可以在 InfiniBand 或 10/40GbE 上实现行业领先的吞吐量。ConnectX-3 中基于硬件的无状态卸载引擎可降低 IP 数据包传输的 CPU 开销。套接字加速软件可进一步提高延迟敏感型应用程序的性能。
I/O 虚拟化 — ConnectX-3 SR-IOV 技术为服务器中的虚拟机 (VM) 提供专用适配器资源以及有保证的隔离和保护。ConnectX-3 的 I/O 虚拟化为数据中心管理员提供更好的服务器利用率,同时降低成本、功耗和线缆复杂性。
存储加速 — 与多架构网络相比,将计算和存储进行整合的网络可实现显著的性价比优势。标准块和文件访问协议可利用 InfiniBand RDMA 进行高性能存储访问。
软件支持
所有 Mellanox 适配器卡均受 Windows、Linux 发行版、VMware 和 Citrix XenServer 支持。ConnectX-3 VPI 适配器支持基于 OpenFabrics 的 RDMA 协议和软件,并与 OEM 和操作系统供应商的配置和管理工具兼容。
功能特性摘要
INFINIBAND
– 符合 IBTA 规范 1.2.1
– 基于硬件的拥塞控制
– 1600 万 I/O 信道
– 256 至 4K 字节 MTU,1G 字节消息
增强的 INFINIBAND
– 基于硬件的可靠传输
– 集合操作卸载
– GPU 通信加速
– 基于硬件的可靠多播
– 扩展可靠连接传输
– 增强的原子操作
以太网
– IEEE Std 802.3ae 10 Gb 以太网
– IEEE Std 802.3ba 40 Gb 以太网
– IEEE Std 802.3ad 链路聚合和故障转移
– IEEE Std 802.3az 高能效以太网
– IEEE Std 802.1Q/.1p VLAN 标记和优先级
– IEEE Std 802.1Qau 拥塞通知
– IEEE P802.1Qaz D0.2 ETS
– IEEE P802.1Qbb D1.0 基于优先级的流量控制
– 巨型帧支持 (9600B)
基于硬件的 I/O 虚拟化
– 单根 IOV
– 地址转换和保护
– 专用适配器资源
– 每个虚拟机多个队列
– 针对 vNIC 的增强型 QoS
– VMware NetQueue 支持
其他 CPU 卸载
– 基于融合以太网的 RDMA
– TCP/UDP/IP 无状态卸载
– 智能中断合并
FLEXBOOT™ 技术
– 通过 InfiniBand 远程启动
– 通过以太网远程启动
– 通过 iSCSI 远程启动
协议支持
– Open MPI、OSU MVAPICH、Intel MPI、MS
– MPI、Platform MPI
– TCP/UDP、EoIB、IPoIB、RDS
– SRP、iSER、NFS RDMA
– uDAPL
兼容性
PCI EXPRESS 接口
– 符合 PCIe Base 3.0 标准,兼容 1.1 和 2.0
– 2.5、5.0 或 8.0GT/s 链路速率 x8
– 自动协商为 x8、x4、x2 或 x1
– 支持 MSI/MSI-X 机制
连接
– 可与 InfiniBand 或 10/40Gb 以太网交换机互操作。可与 56GbE Mellanox 交换机互操作。
– 具有 ESD 保护的无源铜缆
– 用于光纤和有源电缆支持的供电连接器
– 通过 QSA 模块实现的 QSFP 到 SFP+ 连接
操作系统/发行版
– Citrix XenServer 6.1
– Novell SLES、Red Hat Enterprise Linux (RHEL) 和其他 Linux 发行版
– Microsoft Windows Server 2008/2012/2012 R2
– OpenFabrics 企业发行版 (OFED)
– Ubuntu 12.04
– VMware ESXi 4.x 和 5.x