我尝试了cp,rsync,最后http://moo.nac.uci.edu/~hjm/parsync/ parsync首先花了10个小时生成12 GB gzip的文件列表,花了40个小时后没有一个文件被复制,它工作到10个线程,直到我取消它并开始调试,我发现它正在使用-vvv选项(使用rsync)对每个文件(来自列表)再次进行调用(stat?):
[sender] make_file(accounts/hostingfacil/snap.2017-01-07.041721/hostingfacil/homedir/public_HTML/members/vendor/composer/62ebc48e/vendor/whmcs/whmcs-foundation/lib/Domains/DomainLookup/ProvIDer.PHP,*,0)*
parsync命令是:
time parsync --rsyncopts="-v -v -v" --reusecache --NP=10 --startdir=/nfsbackup/folder1/subfolder2 thefolder /nfsbackup2/folder1/subfolder2
每个rsync都有以下形式:
rsync --bwlimit=1000000 -v -v -v -a --files-from=/root/.parsync/kds-chunk-9 /nfsbackup/folder1/subfolder2 /nfsbackup2/folder1/subfolder2
NFS文件夹已挂载:
server:/export/folder/folder /nfsbackup2 nfs auto,noexec,noatime,nolock,bg,intr,tcp,actimeo=1800,nfsvers=3,vers=3 0 0
知道如何指示rsync将列表中已有的文件从nfs复制到nfs2文件夹吗?或者任何有效制作此副本的方法(每个文件一个系统调用?)
解决方法 我曾经遇到过同样的问题,我发现最好只运行一个find命令并单独移动每个文件.cd /origin/pathfind . | cpio -updm ../destination/
总结-u command will overrIDe the existing files
以上是内存溢出为你收集整理的rsync – 在两个NFS 1Gb / s文件夹之间移动9千万个文件(270GB)的最快方法全部内容,希望文章能够帮你解决rsync – 在两个NFS 1Gb / s文件夹之间移动9千万个文件(270GB)的最快方法所遇到的程序开发问题。
如果觉得内存溢出网站内容还不错,欢迎将内存溢出网站推荐给程序员好友。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)