首页 > 代码库 > centos上设置时区

centos上设置时区

本地单文件上传脚本,命名uf

这是在本机上做的测试,利用bpcs_uploader脚本实现,只是进行简单的封装,自动完善云端文件路径。
技术要点:使用dirname获取文件所在目录,使用pwd获取文件完整路径,并作为云端文件路径。

#!/bin/bash
cur_dir=$(cd "$(dirname "$1")"; pwd)
name=$(basename "$1")
/home/grm/bin/bpcs_uploader/bpcs_uploader.php upload $1 AWIN$cur_dir/$name

本地文件夹上传脚本,命名ud

bpcs_uploader脚本只能实现单个文件上传,用此脚本可以实现目录批量上传。
技术要点:通过find命令输出目录下所有文件,用xargs -t -n1实现单个输出,从而可以遍历目录下所有文件,并作为参数逐次赋予脚本uf,通过不断调用脚本uf实现批量上传。

#!/bin/bash
find $1 -name ‘*.*‘ |xargs -t -n1 /home/grm/bin/uf

服务器数据库每日备份脚本,命名backupday.sh(改自鸟哥的linux私房菜)

技术要点:基本都是常规操作,注意find命令-mtime参数的使用

#!/bin/bash
# =========================================================
# 请输入,你想让备份数据放置到那个独立的目录去
basedir=/backup/daily/

# =========================================================
PATH=/bin:/usr/bin:/sbin:/usr/sbin; export PATH
export LANG=C
basefile1=$basedir/mysql.$(date +%Y-%m-%d).tar.bz2
basefile2=$basedir/cgi-bin.$(date +%Y-%m-%d).tar.bz2
[ ! -d "$basedir" ] && mkdir $basedir

# 1. MysQL (数据库目录在 /var/lib/mysql)
cd /var/lib
  tar -jpc -f $basefile1 mysql 

# 2. 定期删除旧备份
DAYS=30
find $basedir -name "mysql*" -type f -mtime +$DAYS -exec rm {} \;

代码及其他配置每周备份脚本,命名为backupweek.sh

#!/bin/bash
# ====================================================================
# 使用者参数输入位置:
# basedir=你用来储存此脚本所预计备份的数据之目录(请独立文件系统)
basedir=/backup/weekly  

# ====================================================================
# 底下请不要修改了!用默认值即可!
PATH=/bin:/usr/bin:/sbin:/usr/sbin; export PATH
export LANG=C

D=$(date +"%Y-%m-%d")

# 配置要备份的服务的配置档,以及备份的目录
postfixd=$basedir/postfix
vsftpd=$basedir/vsftp
sshd=$basedir/ssh
wwwd=$basedir/www
others=$basedir/others
userinfod=$basedir/userinfo
# 判断目录是否存在,若不存在则予以创建。
for dirs in $postfixd $vsftpd $sshd $wwwd $others $userinfod
do
    [ ! -d "$dirs" ] && mkdir -p $dirs
done

# 1. 将系统主要的服务之配置档分别备份下来,同时也备份 /etc 全部。

cd /etc/
    tar -jpc -f $vsftpd/vsftpd.$D.tar.bz2 vsftpd
cd /etc/
    tar -jpc -f $sshd/sshd.$D.tar.bz2 sshd ssh
cd /etc/
    tar -jpc -f $wwwd/httpd.$D.tar.bz2 httpd
cd /var/www
  tar -jpc -f $wwwd/html.$D.tar.bz2    html 
cd /
  tar -jpc -f $others/etc.$D.tar.bz2   etc

# 2. 关於使用者参数方面
cp -a /etc/{passwd,shadow,group}    $userinfod
cd /var/spool
  tar -jpc -f $userinfod/mail.$D.tar.bz2   mail
cd /
  tar -jpc -f $userinfod/home.$D.tar.bz2   home
cd /var/spool
  tar -jpc -f $userinfod/cron.$D.tar.bz2   cron at

# 3. 定期删除旧备份
DAYS=30
find $vsftpd -name "vsftpd*" -type f -mtime +$DAYS -exec rm {} \;
find $sshd -name "sshd*" -type f -mtime +$DAYS -exec rm {} \;
find $wwwd -name "ht*" -type f -mtime +$DAYS -exec rm {} \;
find $others -name "etc*" -type f -mtime +$DAYS -exec rm {} \;
find $userinfod -name "cron*" -type f -mtime +$DAYS -exec rm {} \;
find $userinfod -name "home*" -type f -mtime +$DAYS -exec rm {} \;
find $userinfod -name "mail*" -type f -mtime +$DAYS -exec rm {} \;

自动上传脚本auto_upload_daily.sh

其中upload.sh的代码与本地脚本uf相同。简言之,脚本uf是云备份的基础。

#!/bin/bash
LOCAL_DATA=http://www.mamicode.com/backup/daily>

自动上传脚本auto_upload_weekly.sh

#!/bin/bash
LOCAL_DATA=http://www.mamicode.com/backup/weekly>

最后,再启动定时任务

为防止网络出现问题导致上传失败,重复了3次上传操作

# crontab -l
01 1 * * * /bin/backupday.sh 2>>/backup/errors.log
20 1 * * 0 /bin/backupwk.sh 2>>/backup/errors.log
01 2 * * * /bin/auto_upload_daily.sh 2>>/backup/errors.log
01 4 * * * /bin/auto_upload_daily.sh 2>>/backup/errors.log
01 6 * * * /bin/auto_upload_daily.sh 2>>/backup/errors.log
20 2 * * 0 /bin/auto_upload_weekly.sh 2>>/backup/errors.log
20 4 * * 0 /bin/auto_upload_weekly.sh 2>>/backup/errors.log
20 6 * * 0 /bin/auto_upload_weekly.sh 2>>/backup/errors.log