网站导航

InfiniBand 网卡

当前位置:主页 > InfiniBand 网卡 >

ConnectX®-3 VPI

产品时间:2021-03-24 13:03

简要描述:

带 Virtual Protocol Interconnect 的单/双端口适配器,带有 Virtual Protocol Interconnect (VPI) 的 ConnectX-3 适配器卡支持 InfiniBand 和以太网连接,为企业数据中心、高性能计算和嵌入式环境中使用的...

详细介绍
带 Virtual Protocol Interconnect® 的单/双端口适配器,带有 Virtual Protocol Interconnect (VPI) 的 ConnectX-3 适配器卡支持 InfiniBand 和以太网连接,为企业数据中心、高性能计算和嵌入式环境中使用的 PCI Express Gen3 服务器提供性能最高和最灵活的互连解决方案。
 
优势
 
– 一个用于 InfiniBand、10/40/56 Gig 以太网或数据中心桥接架构的适配器
 
– 世界一流的集群、网络和存储性能
 
– 有保证的带宽和低延迟服务
 
– I/O 整合
 
– 虚拟化加速
 
– 高能效
 
– 可扩展到数万个节点
 
主要功能特性
 
– 虚拟协议互连
 
– 1 微秒 MPI ping 延迟
 
– 每端口最高 56Gb/s InfiniBand 或 40/56Gb 以太网
 
– 提供单端口和双端口选项
 
– PCI Express 3.0(高达 8GT/s)
 
集群数据库、并行处理、事务性服务和高性能嵌入式 I/O 应用程序会实现显著的性能改进,从而缩短完成时间并降低每操作成本。支持 VPI 的 ConnectX-3 还可以通过一种硬件设计来服务于多种架构,从而简化系统开发。
Virtual Protocol Interconnect
 
支持 VPI 的适配器使任何标准的网络、集群、存储和管理协议均可在利用整合软件栈的任何聚合网络上无缝运行。凭借自动感知功能,每个 ConnectX-3 端口可以识别 InfiniBand、以太网或数据中心桥接 (DCB) 架构,并在其上运行。FlexBoot™ 通过允许从远程 InfiniBand 或 LAN 存储目标引导服务器,提供了额外的灵活性。带 VPI 和 FlexBoot 的 ConnectX-3 简化了 I/O 系统设计,使得 IT 经理能够更方便地部署可解决动态数据中心难题的基础架构。
 
世界一流的性能
 
InfiniBand — ConnectX-3 为性能驱动型服务器和存储集群应用程序提供低延迟、高带宽和高计算效率。通过从 CPU 卸载协议处理和数据移动开销(如 RDMA 和发送/接收语义)实现高效计算,从而为应用程序提供更多处理器能力。CORE-Direct™ 通过卸载数据广播和收集等应用程序开销,以及全局同步通信例程,带来了更高水平的性能提升。GPU 通信加速通过消除不必要的内部数据复制提供了额外的效率,从而大幅缩短应用程序运行时间。ConnectX-3 高级加速技术可实现更高的集群效率,并且可大规模地扩展到数万个节点。
 
基于融合以太网的 RDMA — 利用 IBTA RoCE 技术的 ConnectX-3 通过以太网网络提供类似的低延迟和高性能。利用数据中心桥接功能,RoCE 通过第 2 层以太网提供高效的低延迟 RDMA 服务。借助现有以太网基础架构中的链路级别互操作性,网络管理员可以利用现有数据中心架构管理解决方案。
 
套接字加速 — 利用 TCP/UDP/IP 传输的应用程序可以在 InfiniBand 或 10/40GbE 上实现行业领先的吞吐量。ConnectX-3 中基于硬件的无状态卸载引擎可降低 IP 数据包传输的 CPU 开销。套接字加速软件可进一步提高延迟敏感型应用程序的性能。
 
I/O 虚拟化 — ConnectX-3 SR-IOV 技术为服务器中的虚拟机 (VM) 提供专用适配器资源以及有保证的隔离和保护。ConnectX-3 的 I/O 虚拟化为数据中心管理员提供更好的服务器利用率,同时降低成本、功耗和线缆复杂性。
 
存储加速 — 与多架构网络相比,将计算和存储进行整合的网络可实现显著的性价比优势。标准块和文件访问协议可利用 InfiniBand RDMA 进行高性能存储访问。
 
软件支持
 
所有 Mellanox 适配器卡均受 Windows、Linux 发行版、VMware 和 Citrix XenServer 支持。ConnectX-3 VPI 适配器支持基于 OpenFabrics 的 RDMA 协议和软件,并与 OEM 和操作系统供应商的配置和管理工具兼容。
 
功能特性摘要
 
INFINIBAND
 
– 符合 IBTA 规范 1.2.1
 
– 基于硬件的拥塞控制
 
– 1600 万 I/O 信道
 
– 256 至 4K 字节 MTU,1G 字节消息
 
增强的 INFINIBAND
 
– 基于硬件的可靠传输
 
– 集合操作卸载
 
– GPU 通信加速
 
– 基于硬件的可靠多播
 
– 扩展可靠连接传输
 
– 增强的原子操作
 
以太网
 
– IEEE Std 802.3ae 10 Gb 以太网
 
– IEEE Std 802.3ba 40 Gb 以太网
 
– IEEE Std 802.3ad 链路聚合和故障转移
 
– IEEE Std 802.3az 高能效以太网
 
– IEEE Std 802.1Q/.1p VLAN 标记和优先级
 
– IEEE Std 802.1Qau 拥塞通知
 
– IEEE P802.1Qaz D0.2 ETS
 
– IEEE P802.1Qbb D1.0 基于优先级的流量控制
 
– 巨型帧支持 (9600B)
 
基于硬件的 I/O 虚拟化
 
– 单根 IOV
 
– 地址转换和保护
 
– 专用适配器资源
 
– 每个虚拟机多个队列
 
– 针对 vNIC 的增强型 QoS
 
– VMware NetQueue 支持
 
其他 CPU 卸载
 
– 基于融合以太网的 RDMA
 
– TCP/UDP/IP 无状态卸载
 
– 智能中断合并
 
FLEXBOOT™ 技术
 
– 通过 InfiniBand 远程启动
 
– 通过以太网远程启动
 
– 通过 iSCSI 远程启动
 
协议支持
 
– Open MPI、OSU MVAPICH、Intel MPI、MS
 
– MPI、Platform MPI
 
– TCP/UDP、EoIB、IPoIB、RDS
 
– SRP、iSER、NFS RDMA
 
– uDAPL
 
兼容性
 
PCI EXPRESS 接口
 
– 符合 PCIe Base 3.0 标准,兼容 1.1 和 2.0
 
– 2.5、5.0 或 8.0GT/s 链路速率 x8
 
– 自动协商为 x8、x4、x2 或 x1
 
– 支持 MSI/MSI-X 机制
 
连接
 
– 可与 InfiniBand 或 10/40Gb 以太网交换机互操作。可与 56GbE Mellanox 交换机互操作。
 
– 具有 ESD 保护的无源铜缆
 
– 用于光纤和有源电缆支持的供电连接器
 
– 通过 QSA 模块实现的 QSFP 到 SFP+ 连接
 
操作系统/发行版
 
– Citrix XenServer 6.1
 
– Novell SLES、Red Hat Enterprise Linux (RHEL) 和其他 Linux 发行版
 
– Microsoft Windows Server 2008/2012/2012 R2
 
– OpenFabrics 企业发行版 (OFED)
 
– Ubuntu 12.04
 
– VMware ESXi 4.x 和 5.x

 


产品咨询

留言框

  • 产品:

  • 留言内容:

  • 您的姓名:

  • 联系电话:

推荐产品

24小时客服服务热线: 400-660-5680

联系我们

Copyright © 2002-2020 北京欣泉科技有限公司 版权所有 网站地图

地址:北京市海淀区上地信息路7号昊海大厦305室

在线客服 联系方式 二维码

服务热线

4006605680

扫一扫,关注我们