DesignWare是什么

DesignWare是什么,第1张

DesignWare是SoC/ASIC设计者最钟爱的设计IP库和验证IP库。它包括一个独立于工艺的、经验证的、可综合的虚拟微架构的元件集合,包括逻辑、算术、存储和专用元件系列,超过140个模块。DesignWare和 Design Compiler的结合可以极大地改进综合的结果,并缩短设计周期。Synopsys在DesignWare中还融合了更复杂的商业IP(无需额外付费)目前已有:8051微控制器、PCI、PCI-X、USB20、MemoryBIST、AMBA SoC结构仿真、AMBA总线控制器等IP模块。
DesignWare中还包括一个巨大的仿真模型库,其中包括170,000多种器件的代时序的功能级仿真模型,包括FPGAs (Xilinx, Altera,…), uP, DSP, uC, peripherals, memories, common logic, Memory等。还有总线(Bus-Interface)模型PCI-X, USB20, AMBA, Infiniband, Ethernet, IEEE1394等,以及CPU的总线功能仿真模型包括ARM, MIPS, PowerPC等。

RDMA实际上是一种智能网卡与软件架构充分优化的远端内存直接高速访问技术,通过将RDMA协议固化于硬件(即网卡)上,以及支持Zero-copy和Kernel bypass这两种途径来达到其高性能的远程直接数据存取的目标。

目前支持RDMA的网卡并不普及,购买网卡时需要跟供应商咨询清楚是否支持此项功能

另外,目前RDMA的硬件实现有3种(如下),也要跟供应商咨询清楚

目前支持RDMA的网络协议有:

InfiniBand(IB): 从一开始就支持RDMA的新一代网络协议。由于这是一种新的网络技术,因此需要支持该技术的网卡和交换机。

RDMA过融合以太网(RoCE): 即RDMA over Ethernet, 允许通过以太网执行RDMA的网络协议。这允许在标准以太网基础架构(交换机)上使用RDMA,只不过网卡必须是支持RoCE的特殊的NIC。

互联网广域RDMA协议(iWARP): 即RDMA over TCP, 允许通过TCP执行RDMA的网络协议。这允许在标准以太网基础架构(交换机)上使用RDMA,只不过网卡要求是支持iWARP(如果使用CPU offload的话)的NIC。否则,所有iWARP栈都可以在软件中实现,但是失去了大部分的RDMA性能优势。

这个功能比较新,我也只是了解了个大概,具体的还是要实践,只能帮你到这里了。

开启rdma文件共享:但是这个并不局限也是可控的,如果我们进行开发过程中, 就会在内核的库函数文件目录。

InfiniBand(IB):从一开始就支持RDMA的新一代网络协议。由于这是一种新的网络技术,因此需要支持该技术的网卡和交换机。

RDMA过融合以太网(RoCE):即RDMA over Ethernet, 允许通过以太网执行RDMA的网络协议。这允许在标准以太网基础架构(交换机)上使用RDMA,只不过网卡必须是支持RoCE的特殊的NIC。

RDMA 的工作过程如下:

1)当一个应用执行RDMA 读或写请求时,不执行任何数据复制在不需要任何内核内存参与的条件下, RDMA 请求从运行在用户空间中的应用中发送到本地NIC( 网卡)。

2) NIC 读取缓冲的内容,并通过网络传送到远程NIC。

3) 在网络上传输的RDMA 信息包含目标虚拟地址、内存钥匙和数据本身请求完成既可以完全在用户空间中处理(通过轮询用户级完成排列) ,或者在应用一直睡眠到请求完成时的情况下通过内核内存处理RDMA *** 作使应用可以从一个远程应用的内存中读数据或向这个内存写数据。

通过capabilities可以不用setuid,让普通用户运行一个需要root权限才能运行的程序,而且不会用到他/她不需要的root权限。

比如 /bin/ping ,它需要使用raw-socket,这是需要root权限的。

传统意义下,需要使用 #chmod +s /bin/ping 将 /bin/ping 设置为setuid程序才行,但是现在我们可以 #setcap cap_net_raw+ep /bin/ping 即可,其中 cap_net_raw 对应raw-socket权限,ep是effective/permission权限。

若配合 pam_cap 与执行程序的 +ei 权限,可为单独某个用户设置某个程序是否可执行某些特权功能,将非常灵活。

由于root用户对所有文件都有rw权限,因此 chmod -w somefile *** 作somefile后root仍然能改写此文件,但是可以通过 chattr +i somefile 将somefile设置为immutable(不可变),这样root也就无法改写此文件了。

ifconfig已经有十多年没有维护了(最近又有人要开始维护了),而且对infiniband、输出信息的编码、CIDR格式的地址处理都有问题。

总地来说,ifconfig/arp/route/iptunnel需要使用ip命令代替,netstat可以使用ss代替,iwconfig使用iw代替。

sudo vim /etc/network/interfaces

实际上,也可以不用设置源码仓库地址与使用 yumdownloader ,直接 wget >姓名:周肇星;学号:22011110028;学院:通信工程学院

补充改编自 >DPDK  vs pf-ring vs pf-ring-zc      >iSCSI和FC都是磁盘机网络(SAN)连接主机的方式,两者的介质和机理完全不同,介质上iSCSI实用的是以太网,FC是光纤。
FC(光纤信道)技术近几年在存储市场大行其道,与此同时iSCSI方案也越来越引起人们的关注。FC及iSCSI厂商都声称它们的技术代表着将来存储市场的发展方向——前者的优势在于快速、高效,后者则廉价、易于实现。
二者都成立有相关产业组织,前者为光纤产业协会(FCIA),典型代表有McData和Qlogic。以EqualLogic、 Network Appliance为代表支持iSCSI方案的厂商则成立有存储网产业协会(SNIA)。业界一些知名厂商如Brocade、Cisco和IBM甚至同时加入两家组织,并提供两类存储方案。
近年来流行的iSCSI产品方案是iSCSI SAN,主要应用于中小企业,组建低成本和易于使用的IP存储网。与此同时,FC SAN以其性能优势逐步蚕食市场份额。于是整个存储业界发出疑问:FC与iSCSI谁主沉浮?
某iSCSI SAN大型控制器看起来身型也不算太大,因此很受中小企业的欢迎
iSCSI会否取代FC
一种观点认为,FC将逐渐为iSCSI所取代。支持者认为,虽然目前市场对4Gbps FC需求仍然强劲,但随着10G以太网技术进入存储网,这种状况持续不会超过两年时间。IDC认为,相形而言FC主要优势在性能方面,但若是规模配置,以太网技术的优势就显露出来了。
通常,iSCSI易于使用,实现架构依托以太网和IP技术,而且成本低廉。现行使用的大多数iSCSI存储网采用1Gbps以太连接(FC采用1、2、4Gbps模式),通过采用多路控制技术(如微软的Multipath I/O)可实现聚合带宽处理,支持多路以太线路连接和负载均衡功能。
与FC技术相比,iSCSI的最大优势在成本。一个简单例子,一块新型FC主机总线适配器(用于处理T级数据)的价格超过了用于普通以太连接的Exchange服务器。FC在安全和容错方面比iSCSI技术要强;后者则继承了IP技术的互 *** 作特性,不同厂商的FC适配器、交换机及存储设备之间存在不同程度的互 *** 作问题。
iSCSI主要应用于中小企业SAN,尤其是采用Windows系统的刀片式服务器环境,因为对性能要求不是很严,对成本控制要求高。但随着技术的不断发展,iSCSI逐步在向“高端”发展。例如,IBM目前在提供两类存储方案,该公司认为,低端技术一般会朝高端方案发展,而高端技术则不会针对低端应用。iSCSI朝大容量、高性能商业计算方向发展是完全可能的。
FC能否维系统治地位
支持者认为,未来十年,FC技术将继续在高性能网络领域居于支配地位,主要是中等规模企业市场,大型企业网架构更是离不开FC支撑。据IDC 的报告,目前有将近40%的存储服务器采用FC方案,到2007年将有超过70%的服务器使用FC技术。期间,iSCSI服务器应用增长在3%到12%之间,到2008年有可能达到28%左右,但必须是出现成熟的太级(T)数据传输技术后。
FC技术的强项在性能、速率和效能方面。在高速和大容量应用方面,目前还没有与之匹敌的技术。FC采用相对轻量技术协议,服务器中使用命令少;而iSCSI相对要复杂得多(构建于TCP/IP之上,在不同堆栈中处理求和校验)。要满足企业网高速度、大容量存储需求并保证安全,以及因应大型数据库和音、视频流计算处理,FC技术是首选。
对大多数用户来说,衡量系统性能的最重要指标是I/O吞吐率,也就是说,系统能以多快速度从存储系统中读/写数据。目前一个情况是,厂商提供的方案不一定就能真正满足客户需求,尤其是数据中心应用。
去年4月,存储技术开发商Engenio宣布推出4Gbps的FC存储系统。该厂商称系统与缓冲区间的I/O巅峰数据率达到了550000路每秒,与FC媒介间的I/O数据率则可持续达到790000路(目前最快速的iSCSI产品方案是EqualLogic推出的PS系列。据说达到了 360000路I/O每秒)。今年6月,IBM宣布在其TotalStorage DS4800磁盘系统中采用该项技术。之后不久Qlogic与Brocade也宣布推出兼容交换机和主机总线适配器产品,使端到端4Gbps解决方案成为可能。Cisco、McData、StorageTek、NCR及其它一些存储厂商估计也会步其后尘。支持者认为,未来两年将出现8Gbps FC技术,这类高性能FC产品方案将与现行1G或2G FC基础架构保持后向兼容性。
可选宽带技术InfiniBand
另一项可选宽带连接技术是InfiniBand,在一些高性能计算领域有应用,主要是采用InfiniBand交换机进行服务器聚合处理的环境,典型地采用Linux *** 作系统。InfiniBand应用构不成对FC的冲击,但还是有市场空间,一些公司同时在开发InfiniBand和FC产品方案。
两大技术将并存发展
照目前发展态势看,FC与iSCSI相互取代的可能性不大,更多的是走向融合。iSCSI、FC及InfiniBand可满足不同存储需求,而且现在用户在采用某类存储方案时,不一定会马上舍弃以前的系统。目前FC方案应用仍遥遥领先,估计五年内iSCSI不会超越。期间,iSCSI和 InfiniBand方案将逐步进入数据中心;而且将出现FC与iSCSI互联的网关技术,将来的系统平台可能是两类技术的组合。


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/yw/10256026.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-06
下一篇 2023-05-06

发表评论

登录后才能评论

评论列表(0条)

保存