安装openfiler的引导文件是哪个

安装openfiler的引导文件是哪个,第1张

准备一个ISO镜像文件然后将其做成刻录成光盘。重新启动计算机,BIOS设置成光盘启动,虚拟机安装的情况下,直接将镜像放到虚拟机上即可。

打开虚拟机,选择典型下一步,稍后安装 *** 作系统,下一步。选择Linux *** 作系统,版本选择其他Linux 2.6x 内核。

(仅做实验)配置虚机配置,内存我选择256M,处理器1,硬盘我配20G(因为要创建分区),需要把镜像装到虚机光驱里。点击开启此虚拟机。安装界面出现然后回车,以图形化 方式安装Openfiler。

下一步,选择语言English,下一步,d出窗口(提升是否擦除所有数据)单击“Yes”。(review and modify partitioning layout)打√修改分区布局。选择Yes。进入磁盘分区界面。

选择“New”新建分区,在此需要创建以下 3 个分区:

(1)/boot 分区:用于系统引导,一般为其划分 100MB~200MB 空间,

(2)Swap 分区:交换分区,一般为其划分物理内存大小的一到两倍,

(3)/根分区:根分区,Openfiler 的所有配置都存储在此分区,这里把剩下的空间都划分。下一步,进入时区选择界面,选择“亚洲/上海”。

下一步。进入超级管理员密码设置界面。下一步,进入开始软件包安装界面。

点击下一步,对分区进行格式化并进入软件包安装界面。单机Reboot(重启),进入 *** 作系统界面,直接回车进入系统。

7

出现如下图,表示系统已经启动完成 。在浏览器中输入访问的地址就可以来管理Openfiler系统并配置SAN,NAS存储了。

不好说,你先给虚拟机设置20~40G的硬盘,安装op,看实际占用多少吧。虚拟机设置多大的硬盘,不是意味着立马会占用实际物理硬盘的空间,它会根据你实际需要占用相应的物理空间的。比如我安装深度linux,实际就占用大约8G物理硬盘,这还没安装软件,一旦要是安装软件就会更多

iscsi是由scsi协议发展而来,简单来讲,iscsi是对scsi的封装,并通过以太网来进行scsi指令的传输. 传统的scsi存储设备,通过总线连接到主机,供主机使用. 通过iscsi,主机可以直接通过以太网(TCP/IP)连接使用scsi存储设备,这也是通常所说的NAS存储的一种,它提供的是块级存储服务.

通过iscsi连接的存储设备,由于中间经过了交换机等网络设备,从主机到同一个存储设备,可能会存在多条路径. 每条路径在linux系统上都会被识别成一个设备,如果把每条路径都当成独立设备去处理的话,不同路径之间的读写 *** 作就可能会造成数据的紊乱.

multipathd可以解决上述的多路径问题,其主要原理包括:

a. 每一个scsi设备都有唯一的scsi_id,multipathd通过探测scsi_id来判断不同路径后面是不是同一个存储设备.

b. 通过内核device-mapper功能,将多条路径映射为单一的块设备,提供给文件系统使用.

c. 由于多路径的存在,multipathd可以提供负载均衡和高可用的服务.

整个环境通过两台虚拟机搭建,一台虚拟机作为iscsi存储服务器,另一台作为客户端. 两台虚拟机都配置了两张网卡,从客户端到iscsi服务器,可以形成两条路径.

通过openfiler搭建iscsi存储服务器,openfiler镜像包及部署手册,具体参考openfiler官网.

https://www.openfiler.com/community/download

部署完成后,创建了2个iscsi target:

需要安装如下软件包:

iscsi-initiator-utils:提供iscsid服务,及iscsi管理工具iscsiadm

device-mapper-multipath&device-mapper-multipath-libs:提供multipathd服务及multipath管理工具

通过iscsiadm命令探测openfiler服务器上的iscsi target,具体如下:

可以看到,openfiler返回了2个target,每个target 2条路径. 执行命令后,在/var/lib/iscsi/目录生成了如下文件:

对iscsi target执行login *** 作后,系统才能识别到设备并使用,login命令如下:

执行login命令后,识别到了sda、sdb、sdc、sdd 4个设备,查看它们的scsi_id;可以看到sda、sdc是同一设备的不同路径,sdb、sdd是同一设备的不同路径.

启动multipathd服务后,multipathd会自动识别多路径,并自动在/dev/mapper/目录下创建多路径映射后的设备.

查看multipathd工作模式,命令multipath -ll

从上面输出可以看到,multipathd默认的策略是两条路径一主一备.

使用dd往/dev/mapper/mpathb中写入数据,数据从sda写入,sdc处于备用状态

将sda网络断开,过几秒后,切换到sdc写数据

再查看sda、sdc主备情况如下:

修改multipathd path_grouping_policy、path_selector(路径选择策略),在/etc/multipath.conf配置文件中,加入如下配置修改mpathb的工作模式.

重启multipathd服务后,查看multipathd工作模式,可以看到sda sdc都处于active状态:

dd测试mpathb写入数据时的情况如下,sda sdc轮询写入,所以吞吐量一样:


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/yw/7341714.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-04-04
下一篇 2023-04-04

发表评论

登录后才能评论

评论列表(0条)

保存