自动备份网站文件和数据库上传到FTP空间
#你要修改的地方从这里开始
mysql_user=root #mysql用户名
mysql_pass=123456 #mysql密码
mail_to=cat@hostloc.com #数据库发送到的邮箱
ftp_user=cat #ftpl用户名
ftp_pass=123456 #ftp密码
ftp_ip=imcat.in #ftp地址
ftp_backup=backup #ftp上存放备份文件的目录,这个要自己得ftp上面建的
web_data=/home/www #要备份的网站数据
#你要修改的地方从这里结束
别忘记了建目录:mkdir -p /home/backup
如果你的网站数据大于5g小于10g的话,压缩起来会有点困难…
如果小于5g,就没问题了…不过这一切都是看vps的性能而已…
首先安装email发送组件
yum install sendmail mutt
脚本如下:
#!/bin/bash
cd /home/backup
#定义数据库的名字和旧数据库的名字
databakname=data_$(date +”%y%m%d”)..tar.gz
webbakname=web_$(date +%y%m%d).tar.gz
olddata=data_$(date -d -5day +”%y%m%d”).tar.gz
oldweb=web_$(date -d -5day +”%y%m%d”).tar.gz
#删除本地3天前的数据
rm -rf /home/backup/data_$(date -d -3day +”%y%m%d”).tar.gz /home/backup/web_$$(date -d -3day +”%y%m%d”).tar.gz
#导出mysql数据库
/usr/local/mysql/bin/mysqldump -uroot -p123456 –databases db1 db2 db3 > /home/backup/databackup.sql
#压缩数据库
tar zcf /home/backup/$databakname /home/backup/databackup.sql
rm -rf /home/backup/databackup.sql
#发送数据库到email,如果数据库压缩后太大,请注释这行
echo “主题:数据库备份” | mutt -a /home/backup/$databakname -s “内容:数据库备份” www@gmail.com
#压缩网站数据
tar zcvf /home/backup/$webbakname /home/www
#上传到ftp空间,删除ftp空间5天前的数据
ftp -v -n imcat.in << end
user imcat 123456
type binary
cd backup
delete $olddata
delete $oldweb
put $databakname
put $webbakname
bye
end
下载地址:http://catlnmp.googlecode.com/files/autobackuptoftp.sh
下载脚本,给脚本添加权限:
chmod +x autobackuptoftp.sh
利用crontab 实现自动备份,在ssh下,
crontab -e
输入以下内容:
00 00 * * * /home/autobackuptoftp.sh
这样就实现了每天00:00自动备份网站文件和数据库上传到ftp空间。