假定旧集群有三个节点,分别对应三台服务器: 192168110 、 192168111 、 192168112
在旧集群中指定 192168110 作为 NFS(Network File System)服务端,其它两台服务器作为 NFS 客户端,分别安装 NFS:
以下步骤只需要在 NFS 服务端执行。
创建数据共享目录,目录结构可以根据自己的实际情况修改:
修改配置文件:
相关参数的含义如下:
重启 NFS 服务端:
最后确保 NFS 保客户端能够访问 NFS 服务端的数据共享目录。
以下步骤需要在每台 NFS 客户端服务器执行。
在 NFS 客户端服务器创建数据挂载目录,这里方便起见,目录结构和 NFS 服务端共享目录一致:
将 NFS 服务端共享目录挂载到各个 NFS 客户端:
这样所有的 ES 节点就可以使用同一个数据共享目录。
在旧集群每个 ES 节点的 elasticsearchyml 中,设置 ES 快照仓库目录为前边 NFS 配置的数据共享目录,也就是 ES 数据要备份到的目录:
修改完成后重启 ES 服务。
连接旧集群中某一个节点发送 PUT 请求来创建快照仓库,例如使用 192168110 节点,可以使用 Postman、Kibana 发送请求:
或者直接在对应节点的服务器上执行如下命令:
创建索引的快照就是对索引进行备份,如下发送一个 PUT 请求来生成 index_1 、 index_2 索引的快照:
或者:
可以在 NFS 的数据共享目录中( /opt/data/es_backup )得到最终生成的索引快照文件。
查看快照仓库的信息:
查看指定快照:
查看仓库中所有的快照信息:
删除指定快照:
删除快照仓库:
参考文章第一部分的内容,在新集群的服务器上搭建 NFS 环境。
给新集群每个 ES 节点配置快照仓库的目录,也就是新集群中的 NFS 数据共享目录:
连接新集群中某个 ES 节点发送 PUT 请求创建快照仓库,和之前的一样:
先将旧集群中生成的索引快照文件拷贝到新集群的快照仓库目录下。
再连接集群中的某 ES 个节点,发送 POST 请求从索引快照中恢复数据:
或者:
如果不要参数,则是恢复快照中的全部索引:
一般情况下,我们会结合索引的大小,在旧群集中生成指定索引的快照文件,然后拷贝到新集群的快照仓库来恢复索引数据,恢复完后就可以删除对应的索引快照文件(如果有需要的话也可以备份起来),重复这个步骤直到所有索引数据迁移而完毕。
如果集群中的数据量比较大,比如上百个G,整个迁移过程还是比较耗时的,耐心等待吧。NTFS权限跟着走
命令
robocopy d:\work e:\back /e /copyall
[参数讲解]
/copyall等于/copy:datsou,表示将所有源文件夹的信息复制到目标文件夹中,其中D:文件数据,
A:文件属性,T:时间信息,S:权限信息,O:所有者信息,U:审核信息。
/e表示复制所有子目录包括空文件夹
关于数据迁移,因数据量特别大,而且一般情况下,每个文件夹有自己的权限设置,有些管理不好的甚至有好多层子文件夹包括文件的权限设置。如果直接拷贝的话,一是出错的概率很大,第二权限本身也无法复制到新的服务器上。
这里有几种方式能比较好的解决这个问题:
1用老的XCOPY命令,加上合适的参数,可靠性比较高。可通过内网或者用其它介质当中介复制。
2用同步软件,通过网络将所有文件同步到新文件夹上。微软自己也出过这种小工具。这种方法可靠性也不高,出错的概率大。
3经过实践最方便可靠的办法,用VERITAS BE对老的相关文件夹做全备份,然后在新的服务器上装BE AGENT, 然后用这个全备份恢复,重定向到新的服务器上。这种方法 *** 作起来比较简单可靠。
这些都是小鸟云工程师告诉我的,建议你可以试试小鸟云
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)