准备环境
节点1:192.168.139.2
节点2
节点4
节点5
1作为目标端。
2node4node5充当启动器。
此外,安装cman+rgmanager后,node2node4node5将被配置为三节点RHCS高可用性集群。由于gfs2是集群文件系统,所以需要用HA高可用集群隔离故障节点,用消息层传递节点信息。
要使发现并登录的目标成为集成的文件系统,必须在节点2节点4节点5上安装gfs2-utils。
首先,停止最初由luci/ricci创建的集群服务(我在之前的实验中做的一个集群服务,与本次实验无关)。
[root@node2mnt]#clusvcadm-dWeb_Service
本地计算机禁用服务:Web_Service...
[root@node2mnt]#clustat
zxl@WedDec年12月21日17:55:46的集群状态
成员状态:法定人数
成员名称ID状态
----
node2.zxl.com1在线,本地,rgmanager
node4.zxl.com
2在线,rgmanager
服务名称所有者(上一个)状态
-----
服务:Web_Service(node2.zxl.com)已禁用
[root@node2mnt]#服务rgmanager停止
[root@node2mnt]#服务可以停止
[root@node4mnt]#服务rgmanager停止
[root@node4mnt]#服务可以停止
[root@node4mnt]#RM-RF/etc/cluster/cluster.conf
[root@node4mnt]#RM-RF/etc/cluster/cluster.conf
每次配置文件更改时,都会进行备份并删除。
[root@node2mnt]#ls/etc/cluster/
cluster.conf.bakcman-notify.d
[root@node2mnt]#RM-f/etc/cluster/*
如果未安装cman和rgmanager,请执行以下命令
[root@node2mnt]#yum-y安装cmanrgmanager
使用css_tool命令创建一个集群,集群名为mycluster。
[root@node2mnt]#ccs_tool创建mycluster
[root@node2mnt]#cat/etc/cluster/cluster.conf
<?xmlversion="1.0"?>
<clustername="mycluster"config_version="1">;
<clusternodes>
</clusternodes>;
<fencedevices>
</fencedevices>;
<rm>
<failoverdomains>
<资源/>;
</RM>;
</cluster>;
添加隔离设备(RHCS集群必须有一个)
[root@node2mnt]#ccs_tool添加栅栏肉制品栅栏_手动
[root@node2mnt]#CCS_toollsfence
名称代理
肉类栅栏_手动
-v指定节点有投票权。
-n指定节点标识符。
-f指定栅栏设备名称。
添加三个节点。RHCS集群必须至少有三个节点。
[root@node2mnt]#CCS_tooladdnode-v1-n1-fmeatwarenode2.zxl.com
[root@node2mnt]#CCS_tooladdnode-v1-N2-fmeatwarenode4.zxl.com
[root@node2mnt]#CCS_tooladdnode-v1-n3-fmeatwarenode5.zxl.com
查看集群节点
[root@node2mnt]#ccs_toollsnode
集群名称:mycluster,配置版本:5
Nodename投票NodeidFencetype
node2.zxl.com11肉制品公司
node4.zxl.com12肉制品
node5.zxl.com13肉制品
复制配置文件,cssd进程将自动同步RHCS集群。
[root@node2mnt]#scp/etc/cluster/cluster.confnode4:/etc/cluster/
[root@node2mnt]#scp/etc/cluster/cluster.confnode5:/etc/cluster/
每个节点启动cmanrgmanager。
[root@node2mnt]#服务可以启动
[root@node2mnt]#服务rgmanager启动
[root@node4mnt]#服务可以启动
[root@node4mnt]#服务rgmanager启动
[root@node5mnt]#服务可以启动
[root@node5mnt]#服务rgmanager启动
[root@node2mnt]#clustat
mycluster@Wed的群集状态2016年12月21日18:40:26
成员状态:法定人数
成员名称ID状态
----
node2.zxl.com1在线,本地
node4.zxl.com2在线
node5.zxl.com3在线
[root@node2mnt]#rpm-QLgfS2-utils
/etc/rc.d/init.d/gfs2
/sbin/fsck.gfs2
/sbin/mkfs.gfs2\格式化创建gfs2的文件系统
/sbin/mount.gfs2\挂载gfs2文件系统
/usr/sbin/gfs2_convert
mkfs.gfs2命令的使用
-j指定日志区域的数量,以及几个节点可以装载的数量,因为在格式化为集群文件系统后,每个节点都必须有日志记录。
-J指定日志大小,默认情况下为128M。
-p{lock_dlm|lock_nolock}分布式锁管理|无锁
-t<;名称>指定锁表的名称。
注意:一个集群可以有多个文件系统。例如,在一个集群中共享两个磁盘,这两个磁盘可以是gfs2和ocfs2文件系统。当不同的文件系统被锁定时,它们应该被不同的锁表唯一地标记,所以每个锁必须有一个锁名。
锁名称的格式
Cluster_name:锁定表名
例如mycluster:lock_sda
-D显示详细的调试信息。
登录到目标并将其格式化为gfs2文件系统。
[root@node2mnt]#iscsiADM-mnode-Tiqn.2016-12.com.zxl:store1.disk1-p192.168.139.2-l
[root@node2mnt]#mkfs.GFS2-j2-plock_dlm-tmycluster:lock_SDE1/dev/SDE1
您确定要继续吗?[是/否]是
设备:/dev/sde1
区块大小:4096
设备大小3.00GB(787330块)
文件系统大小:3.00GB(787328块)
日志:2
资源组:13
锁定协议:“lock_dlm”
锁表:"mycluster:lock_sde1"
UUID:9ebdc83b-9a61-9a4a-3ba7-9c80e59a0a2d
完成格式化,安装测试
[root@node2mnt]#mount-tgfS2/dev/SDE1/mnt
[根@节点2mnt]#cd/mnt
[root@node2mnt]#ll
总计0
[root@node2mnt]#cp/etc/issue。/
[root@node2mnt]#ll
共计8个
-rw-r-r-。1根根第47期12月21日19:06
好,换到节点4
[root@node4~]#iscsiADM-mnode-Tiqn.2016-12.com.zxl:store1.disk1-p192.168.139.2-l
Node4不需要重新格式化,可以直接挂载。
[root@node4~]#mount-tGFS2/dev/SDC1/mnt
[root@node4~]#cd/mnt
[root@node4mnt]#ll\可以看到node1复制的文件。
共计8个
-rw-r-r-。1根根第47期12月21日19:06
4节点创建一个文件a.txt,这个文件会立即通知其他节点让他们看到。这就是集群文件系统gfs2的优势。
[root@node4mnt]#toucha.txt
[root@node2mnt]#ll
共计16人
-rw-r-r-。1根根012月21日19:10a.txt
-rw-r-r-。1根根第47期12月21日19:06
添加一个节点node5。
[root@node5~]#iscsiADM-mnode-Tiqn.2016-12.com.zxl:store1.disk1-p192.168.139.2-l
无法装入它,因为只创建了两个群集日志文件,并且可以装入几个日志和节点。
[root@node5~]#mount-tGFS2/dev/SDC1/mnt
安装文件系统的节点太多,没有可用日志
添加日志
[root@node2mnt]#gfS2_jadd-J1/dev/SDE1\\-J1添加日志
文件系统:/mnt
旧日志2
新日志3
[root@node2mnt]#gfS2_tooljournals/dev/SDE1\\该命令可以查看多个日志,每个日志的默认大小为128M。
日志2-128MB
日志1-128MB
日志0-128MB
找到3个日志。
[root@node5~]#mount-tgfS2/dev/SDC1/mnt\\node5已成功装载。
[root@node5~]#cd/mnt
[root@node5mnt]#touchb.txt
[root@node4mnt]#ll
共计24人
-rw-r-r-。1根根012月21日19:10a.txt
-rw-r-r-。1根根012月21日19:18b.txt
-rw-r-r-。1根根第47期12月21日19:06
gfs2集群文件系统支持的集群数量一般不能超过16个,超过之后性能会直线下降。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)