打开虚拟机,选择典型下一步,稍后安装 *** 作系统,下一步。选择Linux *** 作系统,版本选择其他Linux 2.6x 内核。
(仅做实验)配置虚机配置,内存我选择256M,处理器1,硬盘我配20G(因为要创建分区),需要把镜像装到虚机光驱里。点击开启此虚拟机。安装界面出现然后回车,以图形化 方式安装Openfiler。
下一步,选择语言English,下一步,d出窗口(提升是否擦除所有数据)单击“Yes”。(review and modify partitioning layout)打√修改分区布局。选择Yes。进入磁盘分区界面。
选择“New”新建分区,在此需要创建以下 3 个分区:
(1)/boot 分区:用于系统引导,一般为其划分 100MB~200MB 空间,
(2)Swap 分区:交换分区,一般为其划分物理内存大小的一到两倍,
(3)/根分区:根分区,Openfiler 的所有配置都存储在此分区,这里把剩下的空间都划分。下一步,进入时区选择界面,选择“亚洲/上海”。
下一步。进入超级管理员密码设置界面。下一步,进入开始软件包安装界面。
点击下一步,对分区进行格式化并进入软件包安装界面。单机Reboot(重启),进入 *** 作系统界面,直接回车进入系统。
7
出现如下图,表示系统已经启动完成 。在浏览器中输入访问的地址就可以来管理Openfiler系统并配置SAN,NAS存储了。
不好说,你先给虚拟机设置20~40G的硬盘,安装op,看实际占用多少吧。虚拟机设置多大的硬盘,不是意味着立马会占用实际物理硬盘的空间,它会根据你实际需要占用相应的物理空间的。比如我安装深度linux,实际就占用大约8G物理硬盘,这还没安装软件,一旦要是安装软件就会更多iscsi是由scsi协议发展而来,简单来讲,iscsi是对scsi的封装,并通过以太网来进行scsi指令的传输. 传统的scsi存储设备,通过总线连接到主机,供主机使用. 通过iscsi,主机可以直接通过以太网(TCP/IP)连接使用scsi存储设备,这也是通常所说的NAS存储的一种,它提供的是块级存储服务.
通过iscsi连接的存储设备,由于中间经过了交换机等网络设备,从主机到同一个存储设备,可能会存在多条路径. 每条路径在linux系统上都会被识别成一个设备,如果把每条路径都当成独立设备去处理的话,不同路径之间的读写 *** 作就可能会造成数据的紊乱.
multipathd可以解决上述的多路径问题,其主要原理包括:
a. 每一个scsi设备都有唯一的scsi_id,multipathd通过探测scsi_id来判断不同路径后面是不是同一个存储设备.
b. 通过内核device-mapper功能,将多条路径映射为单一的块设备,提供给文件系统使用.
c. 由于多路径的存在,multipathd可以提供负载均衡和高可用的服务.
整个环境通过两台虚拟机搭建,一台虚拟机作为iscsi存储服务器,另一台作为客户端. 两台虚拟机都配置了两张网卡,从客户端到iscsi服务器,可以形成两条路径.
通过openfiler搭建iscsi存储服务器,openfiler镜像包及部署手册,具体参考openfiler官网.
https://www.openfiler.com/community/download
部署完成后,创建了2个iscsi target:
需要安装如下软件包:
iscsi-initiator-utils:提供iscsid服务,及iscsi管理工具iscsiadm
device-mapper-multipath&device-mapper-multipath-libs:提供multipathd服务及multipath管理工具
通过iscsiadm命令探测openfiler服务器上的iscsi target,具体如下:
可以看到,openfiler返回了2个target,每个target 2条路径. 执行命令后,在/var/lib/iscsi/目录生成了如下文件:
对iscsi target执行login *** 作后,系统才能识别到设备并使用,login命令如下:
执行login命令后,识别到了sda、sdb、sdc、sdd 4个设备,查看它们的scsi_id;可以看到sda、sdc是同一设备的不同路径,sdb、sdd是同一设备的不同路径.
启动multipathd服务后,multipathd会自动识别多路径,并自动在/dev/mapper/目录下创建多路径映射后的设备.
查看multipathd工作模式,命令multipath -ll
从上面输出可以看到,multipathd默认的策略是两条路径一主一备.
使用dd往/dev/mapper/mpathb中写入数据,数据从sda写入,sdc处于备用状态
将sda网络断开,过几秒后,切换到sdc写数据
再查看sda、sdc主备情况如下:
修改multipathd path_grouping_policy、path_selector(路径选择策略),在/etc/multipath.conf配置文件中,加入如下配置修改mpathb的工作模式.
重启multipathd服务后,查看multipathd工作模式,可以看到sda sdc都处于active状态:
dd测试mpathb写入数据时的情况如下,sda sdc轮询写入,所以吞吐量一样:
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)