intel芯片双口千兆网卡推荐

intel芯片双口千兆网卡推荐,第1张

intel芯片双口千兆网卡

飞迈瑞克(femrice)可提供intel芯片千兆网卡, 千兆网卡 最大传输速度能达到1000Mbit秒,多用于服务器,提供服务器与交换机之间的高速连接,提高网络传输速度,千兆网卡按照端口可分为单口,双口,四口3种,下面就我们来详细介绍Intel芯片双口千兆网卡。

飞迈瑞克FM-NHI350AM2-F2是一款服务器专用千兆网卡,它具有2个1000M的 LC光纤接口,可支持2000Mbs的传输带宽,同时支持PCI-E X4 标准插槽,保证了网卡高效、稳定的工作。另外网卡还支持VLAN、QOS策略、流量控制等功能,适合中大型局域网的应用。

intel芯片双口千兆网卡FM-NHI350AM2-F2,双口SFP千兆服务器网卡PCI-E x4插槽,具有性能增强功能和新的电源管理技术建立在英特尔以太网产品卓越的历史基础之上。 英特尔凭借新一代PCIe GbE网络适配器继续保持市场领先地位。 这些适配器采用无桥英特尔以太网控制器I350构建,通过业界领先的虚拟化和iSCSI统一网络环境增强功能引入新级别的性能,代表了企业和数据中心千兆以太网(GbE)网络演进的下一步。 这一新的适配器系列还包括新的电源管理技术,如节能以太网(EEE)和DMA合并(DMAC)。

灵活的I / O虚拟化

intel芯片双口千兆网卡FM-NHI350AM2-F2包括用于连接的英特尔虚拟化技术(英特尔VT-c),可提供直接设计到适配器控制器上的I / O虚拟化和服务质量(QoS)功能。 I / O虚拟化通过提供灵活端口分区(FPP),多个Rx / Tx队列以及可用于虚拟和非虚拟服务器部署的控制器QoS功能,将当今服务器中使用的网络连接模型推进到更高效的模型。

通过利用PCI-SIG SR-IOV规范,英特尔以太网产品支持灵活端口分区(FPP)。使用FPP,Linux 主机可以直接使用虚拟控制器和/或将虚拟控制器分配给虚拟机。通过此端口分区,管理员可以在单个以太网端口上创建多达八个专用连接,以用于裸机和虚拟化服务器部署。

飞迈瑞克FM-NHI350AM2-T2是一款服务器专用千兆网卡,它具有2个10/100/1000M自适应的RJ45接口,可支持20/200/2000Mbps的传输带宽,同时支持PCI-E X4 标准插槽,保证了网卡高效、稳定的工作。另外网卡还支持VLAN、QOS策略、流量控制等功能,适合中大型局域网的应用。

intel芯片双口千兆网卡FM-NHI350AM2-T2采用无桥英特尔以太网控制器I350构建,这些适配器代表了企业和数据中心千兆以太网(GbE)网络演进的下一步,通过行业领先的增强功能引入新的性能水平 虚拟化和iSCSI统一网络环境。 这一新的适配器系列还包括新的电源管理技术,如节能以太网(EEE)和DMA合并(DMAC)。

产品特性

支持10/100/1000Mbps两个RJ45通道,

接口标准支持PCI Express 20;

支持MSI,MSI-X,支持VMDq队列;

支持ISCSI加速;

支持QOS策略;

支持FCOE卸载;

支持RSS/TX队列;

支持8023x的流量控制;

支持多数网络 *** 作系统,可广泛部署。

你要用PCI直通功能么? 如果是这样,一般主流的网卡都支持,比如broadcom和intel芯片的基本上都支持,reltek、RT、Atheros的也支持大部分,所以你问的支持几种不太好回答,我想说可能至少30种以上。
如果你不是要使用直通功能,而是想知道虚拟机可以使用什么网卡的话,vmware exsi的虚拟机就只支持三种网卡,分别是e1000、vmnet2、vmnet3,如果是vmware workstation的话,就支持pcnet32和e1000,一般你无需关心虚拟机的硬件,只要安装安装好虚拟机 *** 作系统后再安装vmware tools即可自动安装所有的硬件驱动了。

[TOC]

I/O 虚拟化技术有三种:Device Emulation、PCI Pass-through 和 SR-IOV。这三种虚拟化技术在不同程度上实现了 I/O 设备的虚拟化功能。

该方式允许将宿主机中的物理 PCI 设备直接分配给虚拟机使用。KVM 支持虚拟机以独占方式访问这个宿主机的 PCI/PCI-E 设备。通过硬件支持的 VT-d 技术将设备分给虚拟机后,在虚拟机看来,设备是物理上连接在 PCI 或者 PCIe 总线上的,客户机对该设备的 I/O 交互 *** 作和实际的物理设备 *** 作完全一样,几乎不需要 KVM 的参与。运行在 VT-d 平台上的 QEMU/KVM 可以分配网卡、磁盘控制器、USB控制器等设备供虚拟机直接使用。

VT-d 的性能非常好,但是它的物理设备只能分配给一个虚拟机使用。为了实现多个虚拟机共享一个物理设备,并且达到直接分配的目的,PCI-SIG 组织发布了 SR-IOV (Single Root I/O Virtualization) 规范,它定义了一个标准化的机制用以原生地支持实现多个客户机共享一个设备。SR-IOV 广泛应用在网卡上。

SR-IOV 使得一个单一的功能单元(比如,一个以太网端口)能看起来像多个独立的物理设备。一个带有 SR-IOV 功能的物理设备能被配置为多个功能单元。SR-IOV 使用两种功能:

Hypervisor 能将一个或者多个 VF 分配给一个虚拟机。在某一时刻,一个 VF 只能被分配给一个虚拟机。

官方配置文档请参考: SR-IOV-Passthrough-For-Networking

在所有需要配置 SR-IOV 的计算节点上开启 Intel VT-d 和 SR-IOV 配置。
并且将以下参数添加到 /etc/default/grub 中的 GRUB_CMDLINE_LINUX 配置项中。

执行以下命令并重启计算节点。

支持的 vendor_id 可以通过以下命令在计算节点上查询。

SR-IOV Configuration Guide
SR-IOV-Passthrough-For-Networking
Redhat OpenStack SR-IOV Configure
SDN Fundamentails for NFV, Openstack and Containers
KVM Introduction: SR-IOV
PCI Passthrough of host network devices
OpenStack Networking
Attaching physical PCI devices to guests

VXLAN部署方法

VXLAN网络设备主要有三种角色,分别是VTEP(VXLAN Tunnel End Point)、VXLAN网关、VXLAN IP网关,对于应用系统来说,只与这三种设备相关,而与底层传统三层IP网络无关。

VTEP、VXLAN网关、VXLAN IP网关、形态可以是虚拟交换机,也可以是物理交换机。根据VTEP、VXLAN网关、VXLAN IP网关是虚拟交换机还是物理交换机,VXLAN网络的部署方法主要分三种。

(1) 第一种是VTEP、VXLAN网关、VXLAN IP网关均通过安装在服务器上的软件实现。

(2) 第二种是VTEP、VXLAN网关、VXLAN IP网关均由物理交换机承担,物理服务器支持SR-IOV功能,使虚拟机通过SR-IOV技术直接与物理交换机相连,虚拟机的流量在接入交换机上进行VXLAN报文的封装和解封装。

(3)第三种是VTEP由安装在服务器上的软件实现,VXLAN网关、VXLAN IP网关由物理交换机承担。

对于第一种部署方法,由于所有VXLAN报文的封装解封装都通过软件实现,会占用部分服务器资源,特别是VXLAN IP网关,当访问量大时,将会成为系统瓶颈。对于第二种部署方法,由于需要通过一些特殊的要求或技术实现虚拟机与VTEP的对接,组网不够灵活。第三种部署方法通过安装在服务器上的软件实现虚拟机的VTEP,通过物理交换机实现物理服务器的VTEP,通过专业的硬件交换机实现VXLAN IP网关,从而可承载超大规模的流量转发,避免成为系统瓶颈,第三种部署方法结合了第一种和第二种方法的优势,相对而言是目前最优的部署方法。


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zz/13446495.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-08-08
下一篇 2023-08-08

发表评论

登录后才能评论

评论列表(0条)

保存