rsync:可以镜像保存整个目录树和文件系统。可以很容易做到保持原来文件的权限、时间、软硬链接等等。第一次同步时 rsync 会复制全部内容,但在下一次只传输修改过的文件。
方案:起初用rsync进行数据备份是利用计划任务,定时执行一下命令实现rsync的同步,但最近开发这边修改比较频繁,看来需要实时同步备份来完善备份机制!所以需要利用inotify触发器来改善!达到一旦指定的位置有了新的变动就将其同步!
环境:
CentOS 64 64位
rsync-309
inotify-tools-314
说明:
101016 (rsync+inotify)----------网站程序(/data0/htdocs/)
101019 (rsync)------------------网站程序备份(/data0/htdocs/)
目的:
实现101016的/data0/htdocs/目录下发生任何变动都将实时同步到101019的/data0/htdocs/上(另,这两台都跑有keepalived+nginx,来实现出现故障自动切换的容灾,详细配置会在后面补上)
一、web服务器101016 (rsync+inotify)
1、准备软件包
2、安装Rsync
1)、1234 tar-zxvf rsync-309targz
2)、cdrsync-309
3)、/configure--prefix=/usr/local/rsync
4)、make;makeinstall
建立密码认证文件
[root@ftp ~]# echo "111111">/etc/rsyncd/rsyncdsecrets建立密码认证文件
其中111111可以自己设置密码,rsyncdsecrets名字也可以自己设置;
权限:要将/etc/rsyncd/rsyncdsecrets设置为root拥有, 且权限为600。
# chmod 600 /etc/rsyncd/rsyncdsecrets
3、安装inotify
1)、1234 tar-zxvf inotify-tools-314targz
2)、cdinotify-tools-314
3)、/configure--prefix=/usr/local/inotify
4)、make;makeinstall
4、创建rsync复制脚本
此项功能主要是将ftp端的目录/data0/htdocs/里的内容,如果修改了(无论是添加、修改、删除文件)能够通过inotify监控到,并通过rsync实时的同步给101019的/data0/htdocs里,下面是通过shell脚本实现的。
[root@web ~]# vim /root/shell/rsyncsh
[root@web ~]# chmod u+x /root/shell/rsyncsh
[root@web ~]# setsid /root/shell/rsyncsh &
#后台运行脚本,关闭shell终端继续后台运行
rsyncsh脚本加入开机启动项
# echo "/root/shell/rsyncsh" >> /etc/rclocal
防火墙开启rsync端口:873
添加:
iptables -A INPUT -m state --state NEW -m tcp -p tcp --dport 873 -jACCEPT
重启:
# /etc/initd/iptables restart
二、备份服务器101019(rsync)
1、准备工作
创建备份目录:
# mkdir /data0/htdocs
2、安装rsync(备份主机只安装rsync)
1)、1234 tar-zxvf rsync-309targz
2)、cdrsync-309
3)、/configure--prefix=/usr/local/rsync
4)、make;makeinstall
3、建立用户与密码认证文件
[root@backup ~]# echo "root:111111" > /etc/ rsyncd/rsyncdsecrets
[root@backup ~]# less /etc/rsyncd/rsyncdsecrets
root:111111
注意:
请记住,在101016端建立的密码文件,只有密码,没有用户名;而在101019里建立的密码文件,用户名与密码都有。
权限:要将/etc/rsyncd/rsyncdsecrets设置为root拥有, 且权限为600。
#chmod 600 /etc/rsyncd/rsyncdsecrets
4、建立rsync配置文件
[root@backup ~]# vim /etc/rsyncd/rsyncdconf
启动rsync服务
# /usr/local/rsync/bin/rsync --daemon --config=/etc/rsyncdconf
# ps -ef |grep rsync
Rsync服务加入开机启动项
# echo "/usr/local/rsync/bin/rsync --daemon --config=/etc/rsyncdconf" >> /etc/rclocal
防火墙开启rsync端口:873
添加:
iptables -A INPUT -m state --state NEW -m tcp -p tcp --dport 873 -jACCEPT
重启:
# /etc/initd/iptables restart
完成,其实这个时候数据已经同步了!
测试一下:
由于/data0/htdocs/下涉及到一些公司信息,所以就以/data0/htdocs/tmp/为例
主机名可以区别是两台机器,里面的内容完全一直,连文件的属性都一样
再对里面修改一下试试,创建一个文件,然后删除user目录试试这个具体情况不同:
asp网站所使用的access数据库,直接FTP上传到网站程序目录中即可。
php网站使用的mysql数据库,可以备份为sql文件,然后到网站服务器后台,导入备份然后执行还原即可导入原数据。
net网站使用的sql数据库,常见的是备份为bak文件,然后网站后台导入备份,继续执行还原即可导入原数据。
另外对于mysql,如果可以拿到源文件,也可以直接打包传送到服务器,然后解压放置到服务器mysql目录即可。我给你一种建议:
如果你的系统不要求进行会话保持及服务器向客户端主动通信的话(winform中即有有主动需求也可转主动为被动),可以采用webService模式
在服务器上设计一个webservice,然后用你的winform调用
接下来的活就和调用一个DLL是一种效果了
webService走的是web服务器,例如IIS,所以,基本不用考虑它的多用户下怎么排队的问题,你做aspnet时不是也没有去考虑用户怎么排队的问题吗
在此基础上,只要你解决了多用户在同时 *** 作时数据不会发生冲突,那就没必要一定要中转一道文件来绕远路了,直接就可以像网站一样与数据库直接交互了
如果你发现你每一次上传数据行别庞大,那你就要发挥winform的优势了,在网页程序里,想要逐个,逐批的发送数据是很难的,但是在Winform程序里,你可以把大数据量分装成你认为合适的批次发送还可以实时的看着进度
原则就是,每一次与webservice的交互响应时间,不要超过一秒钟
对于一些软件系统来说,用户怕的不是它比别人慢了几秒几分钟,而是用户点一下后,你的程序一点击就死了一样的定在那里,让用户不知所措,直到等它执行完了,才反醒过来,直接给结果没有中间过程,用户不知道它现在在做什么,做到哪儿了我的建议:1在服务器建立一个相同模型的数据库,将数据分批写进去,然后将模型数据库分离到本地附加就行了。
2或者做服务器本地的数据库备份,定义备份作业,执行时间设在网站访问量小的时间段执行。你可以将网站数据库备份,然后把备份的数据库下载下来,在本地安装新的织梦系统,并把备份的数据库恢复,注意本地版本一定要和线上的那各一样,不然恢复出错或无法恢复的,另外如果模版不是默认的,也要把线上的模版对应放到本地的目录如果企业一直使用境外服务器,需要进行如下处理:
1 向国家相关部门申请备案。在中国境内使用服务器需要进行备案,如果使用的是境外服务器,则需要向国家相关部门进行申请备案。
2 考虑使用国内服务器。为了避免备案、监管等问题,建议企业考虑使用国内服务器。国内服务器也有相对更好的性价比,并且能够提供更好的服务和技术支持。
3 迁移数据。如果企业已经在境外服务器上存储了大量数据,需要考虑如何迁移数据到国内服务器。这个过程可能需要一定的时间和技术支持。
4 安全审查。迁移数据之后,需要进行安全审查,确保数据安全可靠。同时也需要对国内服务器进行安全评估。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)