当前位置: 主页 > 运维经验 > 系统管理 >

linux运维:数据拷贝也是门艺术

时间:2013-05-30 09:40来源:www.80sa.org 作者:admin 点击:
今天下午,由于工作需要,对网站的站点目录进行数据本地备份,由于站点目录较大,拷贝起来 比较费劲,刚开始的时候考虑使用的是rsync本地数据拷贝: 但是由于数据量很大,而且程
欢迎大家分享自己的文档,请点击查阅:分享方法,Linux系统运维
如果你喜欢这文章,可以点击文章结尾处百度分享,分享到你的各种社区收藏,或推荐给朋友……


    今天下午,由于工作需要,对网站的站点目录进行数据本地备份,由于站点目录较大,拷贝起来
比较费劲,刚开始的时候考虑使用的是rsync本地数据拷贝:
 
但是由于数据量很大,而且程序那边催的比较紧急,所以我就 du -sh /www/home/*
发现upload 和 cache 两个目录容量很大,就使用如下方式进行拷贝
rsync -avz --exclude=/www/home/upload --exclude=/www/home/cache /www/home /www/home_new/
 
悲剧出现了,rsync一直这样显示了20多分钟也没有数据过去,一直停滞在如下状况:
[root@c6 /]# rsync -avz /www/home/ /www/home_new/
building file list ... 
奇怪,以前centos系列的操作系统使用就没事,这次是怎么了呢?查看了下系统信息,大致如下
[root@c6 /]# cat /etc/redhat-release 
Red Hat Enterprise Linux Server release 5.3 (Tikanga)
[root@c6 /]# getconf LONG_BIT
64
是红帽的,难道问题出在这里?时间紧急,暂时待考察,于是我就想cp命令是否也有--exclude这个
参数,经查看帮助,确定没有;危机时刻,经杨经理提示,想起了一损招,看看tar命令是否有此排
除目录功能,百度了下,发现有此功能,
tar -zcvf home_new1.tar.gz --exclude=/www/home/cache --exclude=/www/home/upload  /www/home/
于是顺利拷贝成功,事情虽小,可谓一波三折。
其它比较大的目录,可以稍后解决,因为公司崔的比较紧急,故只能先这样解决了!

转载请注明linux系统运维
http://www.linuxyw.com/linux/yunweijingyan/xitongguanli/20130530/505.html

------分隔线----------------------------
发表评论
请自觉遵守互联网相关的政策法规,严禁发布色情、暴力、反动的言论。
评价:
验证码: 点击我更换图片