网站数据是站长的生命,勤于备份是非常有必要的,任何时候把鸡蛋放在几个篮子里!今天就来介绍下如何每日自动备份网站数据及数据库并上传FTP。
#!/bin/bash #以下信息请自行修改 MYSQL_USER=root #mysql用户名 MYSQL_PASS=mysqlpasswd #mysql密码 FTP_USER=ftpuser #ftp用户名 FTP_PASS=ftppasswd #ftp密码 FTP_IP=*.*.*.* #ftp地址 FTP_backup=backup #ftp上存放备份文件的目录,这个要需要自己在ftp上面创建 WEB_DATA=/home/wwwroot #要备份的网站数据 #以上信息自行修改 #定义数据库的名字和旧数据库的名字 DataBakName=Data_$(date +"%Y%m%d").tar.gz WebBakName=Web_$(date +%Y%m%d).tar.gz OldData=Data_$(date -d -5day +"%Y%m%d").tar.gz OldWeb=Web_$(date -d -5day +"%Y%m%d").tar.gz #删除本地3天前的数据 rm -rf /home/backup/Data_$(date -d -3day +"%Y%m%d").tar.gz /home/backup/Web_$(date -d -3day +"%Y%m%d").tar.gz cd /home/backup #导出数据库,一个数据库一个压缩文件 for db in `/usr/local/mysql/bin/mysql -u$MYSQL_USER -p$MYSQL_PASS -B -N -e 'SHOW DATABASES' | xargs`; do (/usr/local/mysql/bin/mysqldump -u$MYSQL_USER -p$MYSQL_PASS ${db} | gzip -9 - > ${db}.sql.gz) done #压缩数据库文件为一个文件 tar zcf /home/backup/$DataBakName /home/backup/*.sql.gz rm -rf /home/backup/*.sql.gz #压缩网站数据 tar zcf /home/backup/$WebBakName $WEB_DATA #上传到FTP空间,删除FTP空间5天前的数据 ftp -v -n $FTP_IP << END user $FTP_USER $FTP_PASS type binary cd $FTP_backup delete $OldData delete $OldWeb put $DataBakName put $WebBakName bye END
将以上脚本按照您的VPS信息设定后,存为AutoBackupToFtp.sh,然后上传至VPS的root目录下。然后,给脚本赋予权限:
chmod +x /root/AutoBackupToFtp.sh
接下来我们可以测试下这个脚本是否正常工作,ssh登陆手动运行脚本,查看相关FTP位置是否收到数据。如果一切正常,我们再用cron实现每日自动运行这个脚本
crontab –e
添加以下任务
00 03 * * * /root/AutoBackupToFtp.sh
任务的时间请自行设定,比如上面代码中的00 03,就是3点,尽量选择您网站访客最少的时间段,比如凌晨。
【注意事项】如果运行脚本时提示backup文件夹不存在,或者不能建立,请手动在VPS的home目录下建立backup文件夹。
本文脚本来自原小叶博客~~