mmm_agent.conf
include mmm_common.conf
# include 包含了mmm_common.conf配置文件的内容
# The 'this' variable refers to this server. Proper operation requires
# that 'this' server (db1 by default), as well as all other servers, have the
# proper IP addresses set in mmm_common.conf.
this db1
# this 指定了当前主机为db1
mmm_common.conf
active_master_role writer
# One should set read-only=1 in the configuration of all MySQL servers,
# MMM will change that to read-only=0 on the host with the active_master_role.
# 设置写角色的时候,会执行set global read_only = 0
cluster_interface eth0
# network interface on which the IPs of the roles should be configured
# 配置的网络接口,注意不能指定为子接口,例如eth0:0
agent_port 9989
# Port on which mmm_agentd listens
# mmm_agentd的监听端口,默认为9989
mysql_port 3306
# Port on which mysqld is listening
# 监听的mysql端口,默认3306
pid_path /var/run/mysql-mmm/mmm_agentd.pid
# Location of pid-file
# pid文件位置,如果配置cluster模式,需要增加cluster标识.
bin_path /usr/libexec/mysql-mmm/
# Path to directory containing MMM binaries
# mmm执行文件路径,注意:2.0版本和2.1版本的路径不一样.
replication_user replication
replication_password XXX
MMM高可用方案简介MMM(Master-Master Replication Manager for MySQL)主主复制管理器,是一套提供了MySQL主主复制配置的监控、故障迁移和管理的可伸缩的脚本程序。在MMM高可用解决方案中,可以配置双主多从架构,通过MySQL Replication技术可以实现两台MySQL服务器互为主从,并且在任何时候只有一个节点可以写入,避免多节点写入的数据冲突,同时,当可写节点故障时,MMM套件可以立即监控到,然后将服务自动切换到另一个主节点继续提供服务,从而实现MySQL的高可用。
简而言之,通过MMM可以实现监控和管理MySQL主主复制和服务状态,同时也可以监控多个Slave节点的复制和运行状态,并且可以做到任意节点发生故障时实现自动切换的功能。MMM也为MySQL提供了读、写分离架构的良好平台。
MMM套件的优缺点
MMM集群套件具有良好的稳定性、高可用性和可扩展性。当活动的Master节点出现故障时,备用Master节点可以立即接管,而其他的Slave节点也能自动切换到备用Master节点继续进行同步复制,而无需人为干涉;MMM架构需要多个节点、多个IP,对服务器数量有要求,在读写非常繁忙的业务系统下表现不是很稳定,可能会出现复制延时、切换失效等问题。MMM方案并不太适应于对数据安全性要求很高,并且读、写繁忙的环境中。
MMM高可用套件工作原理
MMM套件主要的功能是通过以下三个脚本实现的:
1、mmm_mond:监控进程,运行在管理节点上,主要复制对所有数据库的监控工作,同时决定和处理所有节点的角色切换。
2、mmm_agentd:代理进程,运行在每一台MySQL服务器上,主要完成监控的测试工作和执行简单的远端服务设置。
3、mmm_control:一个简单的管理脚本,用来查看和管理集群运行状态,同时管理mmm_mond进程。
MMM高可用MySQL配置方案
在通过MMM套件实现的双Master架构中,需要5个IP地址,两个Master节点各有一个固定的物理IP,另外两个只读IP(reader IP)和一个可以IP(writer IP),这三个虚拟IP不会固定在任何一个节点上,相反,它会在两个Master节点之间来回切换(如何切换取决于节点的高可用)。在正常情况下Master1有两个虚拟IP(reader IP和writer IP),Master2有一个虚拟IP(reader IP),如果Master1故障,那么所有的reader和writer虚拟IP都会分配到Master上。
环境说明:
主机名IP地址集群角色MySQL版本系统版本
Master1192.168.1.210主Master可读、写mysql-5.6.28CentOS6.7
Master2192.168.1.211备Master可读、写mysql-5.6.28CentOS6.7
Slave1192.168.1.250Slave节点只读mysql-5.6.28CentOS6.7
Slave2192.168.1.209Slave节点只读mysql-5.6.28CentOS6.7
Monitor192.168.1.21MMM服务管理端mysql-5.6.28CentOS6.7
虚拟IP地址:
writer IP192.168.1.230写入VIP,仅支持单节点写入
reader IP192.168.1.231只读VIP,每个数据库节点一个读VIP,可以通过LVS、HAproxy等负载均衡软件对读VIP做负载均衡
reader IP192.168.1.232
reader IP192.168.1.233
reader IP192.168.1.234
MMM的安装和配置
Step1:MMM套件的安装
1、在MMM管理端monitor安装MMM所有套件
[root@monitor~]#rpm-ivhepel-release-6-8.noarch.rpm
[root@monitor~]#yuminstallmysql-mmmmysql-mmm-agentmysql-mmm-toolsmysql-mmm-monitor
2、在各个MySQL节点上安装mysql-mmm-agent服务
[root@master1~]#yuminstallmysql-mmm-agent
[root@master2~]#yuminstallmysql-mmm-agent
[root@slave1~]#yuminstallmysql-mmm-agent
[root@slave2~]#yuminstallmysql-mmm-agent
Step2:Master1和两个Slave上配置主从(这里需要提前做好配置,Master1和Master2主主配置也一样)
1、Master1上授权slave1、2的复制用户
[root@master1~]#mysql-uroot-ppasswd
mysql>grantreplicationslaveon*.*to'repl'@'192.168.1.250'identifiedby'replpasswd'
mysql>grantreplicationslaveon*.*to'repl'@'192.168.1.209'identifiedby'replpasswd'
mysql>flushprivileges
2、Slave1、2上设置指定Master1同步复制
[root@slave1~]#mysql-uroot-ppasswd
mysql>changemasterto
->master_host='192.168.1.210',
->master_user='repl',
->master_password='replpasswd',
->master_port=3306,
->master_log_file='mysql-bin.000034',
->master_log_pos=120
QueryOK,0rowsaffected,2warnings(0.06sec)
[root@slave2~]#mysql-uroot-ppasswd
mysql>changemasterto
->master_host='192.168.1.210',
->master_user='repl',
->master_password='replpasswd',
->master_port=3306,
->master_log_file='mysql-bin.000034',
->master_log_pos=120
QueryOK,0rowsaffected,2warnings(0.02sec)
Step3:在所有的MySQL节点的/etc/my.cnf中增加参数
read_only=1
Step4:在所有的MySQL节点添加以下两个用户
mysql>grant replication client on *.* to 'mmm_monitor'@'192.168.1.%' identified by 'monitorpasswd'mysql>grant super, replication client, process on *.* to 'mmm_agent'@'192.168.1.%' identified by 'agentpasswd'Step5:在MMM管理端monitor上配置mmm_common.conf
[root@monitor~]#ls/etc/mysql-mmm/mmm_agent.conf
mmm_common.conf#在所有的节点配置,配置相同
mmm_mon.conf#仅在MMM管理端配置
mmm_mon_log.conf
mmm_tools.conf
vim /etc/mysql-mmm/mmm_common.conf 所有的MMM节点配置相同
active_master_rolewriter
cluster_interfaceeth0
pid_path/var/run/mysql-mmm/mmm_agentd.pid
bin_path/usr/libexec/mysql-mmm/
replication_userreplication
replication_passwordreplication
agent_usermmm_agent
agent_passwordagentpasswd
ip192.168.1.210
modemaster
peerdb2
ip192.168.1.211
modemaster
peerdb1
ip192.168.1.209
modeslave
ip192.168.1.250
modeslave
hostsdb1,db2
ips192.168.1.230
modeexclusive
hostsdb1,db2,db3,db4
ips192.168.1.231,192.168.1.232,192.168.1.233,192.168.1.234
modebalanced
Step6:在MMM管理节点上配置mmm_mon.conf
[root@monitor ~]# vim /etc/mysql-mmm/mmm_mon.conf
includemmm_common.conf
ip127.0.0.1
pid_path/var/run/mysql-mmm/mmm_mond.pid
bin_path/usr/libexec/mysql-mmm
status_path/var/lib/mysql-mmm/mmm_mond.status
ping_ips192.168.1.1,192.168.1.2,192.168.1.210,192.168.1.211,192.168.1.209,192.168.1.
250
flap_duration3600
flap_count3
auto_set_online8
#Thekill_host_bindoesnotexistbydefault,thoughthemonitorwill
#throwawarningaboutitmissing.Seethesection5.10"KillHost
#Functionality"inthePDFdocumentation.
#
#kill_host_bin/usr/libexec/mysql-mmm/monitor/kill_host
#
monitor_usermmm_monitor
monitor_passwordmonitorpasswd
debug0
Step7:在所有的MySQL节点配置mmm_agent.conf
[root@master1mysql]#vim/etc/mysql-mmm/mmm_agent.conf
includemmm_common.conf
thisdb1#在四台mysql节点上设置对应的db,分别为db1、db2、db3、db4
Step8:所有节点设置ENABLED=1
cat/etc/default/mysql-mmm-agent
#mysql-mmm-agentdefaults
ENABLED=1
Step9:启动MMM服务
在MMM管理端启动服务
[root@monitor ~]# /etc/init.d/mysql-mmm-monitor startStarting MMM Monitor Daemon: [ OK ]
在每个mysql节点启动服务
[root@master1 ~]# /etc/init.d/mysql-mmm-agent startStarting MMM Agent Daemon: [ OK ]
查看集群运行状态
[root@monitormysql-mmm]#mmm_controlshow
db1(192.168.1.210)master/AWAITING_RECOVERY.Roles:
db2(192.168.1.211)master/AWAITING_RECOVERY.Roles:
db3(192.168.1.209)slave/AWAITING_RECOVERY.Roles:
db4(192.168.1.250)slave/AWAITING_RECOVERY.Roles:
若一直出现上面AWAITING_RECOVERY的状态,可以手动设置各个MySQL节点为online状态
[root@monitor~]#mmm_controlset_onlinedb1
OK:Stateof'db1'changedtoONLINE.Nowyoucanwaitsometimeandcheckitsnewroles!
[root@monitor~]#mmm_controlset_onlinedb2
OK:Stateof'db2'changedtoONLINE.Nowyoucanwaitsometimeandcheckitsnewroles!
[root@monitor~]#mmm_controlset_onlinedb3
OK:Stateof'db3'changedtoONLINE.Nowyoucanwaitsometimeandcheckitsnewroles!
[root@monitor~]#mmm_controlset_onlinedb4
OK:Stateof'db4'changedtoONLINE.Nowyoucanwaitsometimeandcheckitsnewroles!
[root@monitor~]#mmm_controlshow
db1(192.168.1.210)master/ONLINE.Roles:reader(192.168.1.234),writer(192.168.1.230)
db2(192.168.1.211)master/ONLINE.Roles:reader(192.168.1.231)
db3(192.168.1.209)slave/ONLINE.Roles:reader(192.168.1.232)
db4(192.168.1.250)slave/ONLINE.Roles:reader(192.168.1.233)
检测各个节点的运行状态
[root@monitor~]#mmm_controlchecksall
db4ping[lastchange:2016/02/2705:13:57]OK
db4mysql[lastchange:2016/02/2705:13:57]OK
db4rep_threads[lastchange:2016/02/2705:13:57]OK
db4rep_backlog[lastchange:2016/02/2705:13:57]OK:Backlogisnull
db2ping[lastchange:2016/02/2705:13:57]OK
db2mysql[lastchange:2016/02/2705:13:57]OK
db2rep_threads[lastchange:2016/02/2705:13:57]OK
db2rep_backlog[lastchange:2016/02/2705:13:57]OK:Backlogisnull
db3ping[lastchange:2016/02/2705:13:57]OK
db3mysql[lastchange:2016/02/2705:13:57]OK
db3rep_threads[lastchange:2016/02/2705:13:57]OK
db3rep_backlog[lastchange:2016/02/2705:13:57]OK:Backlogisnull
db1ping[lastchange:2016/02/2705:13:57]OK
db1mysql[lastchange:2016/02/2705:13:57]OK
db1rep_threads[lastchange:2016/02/2705:13:57]OK
db1rep_backlog[lastchange:2016/02/2705:13:57]OK:Backlogisnull
Step10:查看各节点虚拟IP分配情况
Master1
[root@master1~]#ipa|grepeth0
2:eth0:mtu1500qdiscpfifo_faststateUPqlen1000
inet192.168.1.210/24brd192.168.1.255scopeglobaleth0
inet192.168.1.234/32scopeglobaleth0
inet192.168.1.230/32scopeglobaleth0
Mster2
[root@master2~]#ipa|grepeth0
2:eth0:mtu1500qdiscpfifo_faststateUPqlen1000
inet192.168.1.211/24brd192.168.1.255scopeglobaleth0
inet192.168.1.231/32scopeglobaleth0
Slave1
[root@slave1~]#ipa|grepeth0
2:eth0:mtu1500qdiscpfifo_faststateUPqlen1000
inet192.168.1.250/24brd192.168.1.255scopeglobaleth0
inet192.168.1.213/32scopeglobaleth0
inet192.168.1.233/32scopeglobaleth0
Slave2
[root@slave2~]#ipa|grepeth0
2:eth0:mtu1500qdiscpfifo_faststateUPqlen1000
inet192.168.1.209/24brd192.168.1.255scopeglobaleth0
inet192.168.1.232/32scopeglobaleth0
Step11:测试MMM实现MySQL高可用
1、授权一个可以通过远程使用VIP登陆集群的用户
mysql>grant all on *.* to 'hm'@'192.168.1.%' identified by '741616710'2、使用VIP192.168.1.230登陆,并做相关测试,在各个节点查看是否同步数据库
[root@monitor ~]# mysql -uhm -p741616710 -h192.168.1.230
mysql>showvariableslike'hostname%'
+---------------+---------+
|Variable_name|Value|
+---------------+---------+
|hostname|master1|
+---------------+---------+
1rowinset(0.01sec)
mysql>createdatabasetest1
QueryOK,1rowaffected(0.00sec)
mysql>usetest1
Databasechanged
mysql>createtablett1(idint,namevarchar(20))
QueryOK,0rowsaffected(0.13sec)
有两种方法,一种方法使用mysql的check table和repair table 的sql语句,另一种方法是使用MySQL提供的多个myisamchk, isamchk数据检测恢复工具。前者使用起来比较简便。推荐使用。1. check table 和 repair table
登陆mysql 终端:
mysql -uxxxxx -p dbname
check table tabTest
如果出现的结果说Status是OK,则不用修复,如果有Error,可以用:
repair table tabTest
进行修复,修复之后可以在用check table命令来进行检查。在新版本的phpMyAdmin里面也可以使用check/repair的功能。
2. myisamchk, isamchk
其中myisamchk适用于MYISAM类型的数据表,而isamchk适用于ISAM类型的数据表。这两条命令的主要参数相同,一般新的系统都使用MYISAM作为缺省的数据表类型,这里以myisamchk为例子进行说明。当发现某个数据表出现问题时可以使用:
myisamchk tablename.MYI
进行检测,如果需要修复的话,可以使用:
myisamchk -of tablename.MYI
关于myisamchk的详细参数说明,可以参见它的使用帮助。需要注意的时在进行修改时必须确保MySQL服务器没有访问这个数据表,保险的情况下是最好在进行检测时把MySQL服务器Shutdown掉。
-----------------------------
另外可以把下面的命令放在你的rc.local里面启动MySQL服务器前:
[ -x /tmp/mysql.sock ] &&/pathtochk/myisamchk -of /DATA_DIR/*/*.MYI
其中的/tmp/mysql.sock是MySQL监听的Sock文件位置,对于使用RPM安装的用户应该是/var/lib/mysql/mysql.sock,对于使用源码安装则是/tmp/mysql.sock可以根据自己的实际情况进行变更,而pathtochk则是myisamchk所在的位置,DATA_DIR是你的MySQL数据库存放的位置。
需要注意的时,如果你打算把这条命令放在你的rc.local里面,必须确认在执行这条指令时MySQL服务器必须没有启动!检测修复所有数据库(表)
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)