网站数据是站长的生命,勤于备份是非常有必要的,任何时候把鸡蛋放在几个篮子里!今天就来介绍下如何每日自动备份网站数据及数据库并上传FTP。

#!/bin/bash
#以下信息请自行修改
MYSQL_USER=root                             #mysql用户名
MYSQL_PASS=mysqlpasswd                      #mysql密码
FTP_USER=ftpuser                            #ftp用户名
FTP_PASS=ftppasswd                          #ftp密码
FTP_IP=*.*.*.*                              #ftp地址
FTP_backup=backup                           #ftp上存放备份文件的目录,这个要需要自己在ftp上面创建
WEB_DATA=/home/wwwroot                      #要备份的网站数据
#以上信息自行修改
#定义数据库的名字和旧数据库的名字
DataBakName=Data_$(date +"%Y%m%d").tar.gz
WebBakName=Web_$(date +%Y%m%d).tar.gz
OldData=Data_$(date -d -5day +"%Y%m%d").tar.gz
OldWeb=Web_$(date -d -5day +"%Y%m%d").tar.gz
#删除本地3天前的数据
rm -rf /home/backup/Data_$(date -d -3day +"%Y%m%d").tar.gz /home/backup/Web_$(date -d -3day +"%Y%m%d").tar.gz
cd /home/backup
#导出数据库,一个数据库一个压缩文件
for db in `/usr/local/mysql/bin/mysql -u$MYSQL_USER -p$MYSQL_PASS -B -N -e 'SHOW DATABASES' | xargs`; do
(/usr/local/mysql/bin/mysqldump -u$MYSQL_USER -p$MYSQL_PASS ${db} | gzip -9 - > ${db}.sql.gz)
done
#压缩数据库文件为一个文件
tar zcf /home/backup/$DataBakName /home/backup/*.sql.gz
rm -rf /home/backup/*.sql.gz
#压缩网站数据
tar zcf /home/backup/$WebBakName $WEB_DATA
#上传到FTP空间,删除FTP空间5天前的数据
ftp -v -n $FTP_IP << END
user $FTP_USER $FTP_PASS
type binary
cd $FTP_backup
delete $OldData
delete $OldWeb
put $DataBakName
put $WebBakName
bye
END

将以上脚本按照您的VPS信息设定后,存为AutoBackupToFtp.sh,然后上传至VPS的root目录下。然后,给脚本赋予权限:

chmod +x /root/AutoBackupToFtp.sh

接下来我们可以测试下这个脚本是否正常工作,ssh登陆手动运行脚本,查看相关FTP位置是否收到数据。如果一切正常,我们再用cron实现每日自动运行这个脚本

crontab –e

添加以下任务

00 03 * * * /root/AutoBackupToFtp.sh

任务的时间请自行设定,比如上面代码中的00 03,就是3点,尽量选择您网站访客最少的时间段,比如凌晨。

【注意事项】如果运行脚本时提示backup文件夹不存在,或者不能建立,请手动在VPS的home目录下建立backup文件夹。

本文脚本来自原小叶博客~~