Теперь я использую это в cron для резервного копирования всех моих баз данных в 1 файл sql.gz:
0 0 * * * root mysqldump -u root -pPASSWORD --all-databases | gzip > /home/backup/db/`date +\%G-\%m-\%d`_db.sql.gz
Я хотел бы иметь один файл .tar.gz, в котором X других архивов для того, сколько баз данных у меня есть .. Возможно ли это?
Что-то вроде этого может сработать. Он не протестирован, но лишь немного отличается от того, что я использую для резервного копирования в своих системах.
# define common vars
OPTIONS="--verbose --lock-tables --flush-logs --force --quick --single-transaction"
AUTHFILE="/etc/mysql/rootauth.cnf"
BACKUPDIR="/srv/backup/mysql/"
BACKUPDATE=`date +"%y%m%d%H"`
# create temp folder (this isn't entirely safe, but be sure only root or backup user has
# write access here, you might want to use mktemp)
mkdir ${BACKUPDIR}/tmp/
# get a list of all the databases on the system
DBSQL="SELECT SCHEMA_NAME FROM information_schema.SCHEMATA where SCHEMA_NAME!='information_schema' \
AND SCHEMA_NAME!='performance_schema' order by SCHEMA_NAME"
DBS=`/usr/bin/mysql --defaults-extra-file=${AUTHFILE} --batch \
--skip-column-names --execute "$DBSQL"`
DBS=`echo $DBS | tr -d '\n' | sed -e "s/ \+/ /g"`
for DB in $DBS; do
# perform a per-database dump
BACKUPDIRDB="${BACKUPDIR}/tmp/${DB}"
mkdir -p ${BACKUPDIRDB}
/usr/bin/mysqldump --defaults-extra-file=${AUTHFILE} \
${OPTIONS} $DB > ${BACKUPDIRDB}/backup_${BACKUPDATE}
done
# create archive of everything
tar -czvf ${BACKUPDIR}/backup_${BACKUPDATE}.tar.gz ${BACKUPDIR}/tmp/
#remove temp files
rm -rf ${BACKUPDIR}/tmp/
Создайте сценарий, подобный этому, чтобы mysqldump все базы данных параллельно
DBLIST=`mysql -uroot -pPASSWORD -ANe"SELECT GROUP_CONCAT(schema_name) FROM information_schema.schemata WHERE schema_name NOT IN ('information_schema','performance_schema')" | sed 's/,/ /g'`
MYSQLDUMP_OPTIONS="-uroot -pPASSWORD --single-transaction --routines --triggers"
BACKUP_DEST=/home/backup/db/`date +\%G-\%m-\%d`
mkdir ${BACKUP_DEST}
for DB in `echo "${DBLIST}"`
do
mysqldump ${MYSQLDUMP_OPTIONS} ${DB} | gzip > ${BACKUP_DEST}/${DB}.sql.gz &
done
wait
Затем поместите этот скрипт в crontab
Если баз данных слишком много, вы можете выгрузить 5 за раз, как это
DBLIST=`mysql -uroot -pPASSWORD -ANe"SELECT GROUP_CONCAT(schema_name) FROM information_schema.schemata WHERE schema_name NOT IN ('information_schema','performance_schema')" | sed 's/,/ /g'`
MYSQLDUMP_OPTIONS="-uroot -pPASSWORD --single-transaction --routines --triggers"
BACKUP_DEST=/home/backup/db/`date +\%G-\%m-\%d`
mkdir ${BACKUP_DEST}
COMMIT_COUNT=0
COMMIT_LIMIT=5
for DB in `echo "${DBLIST}"`
do
mysqldump ${MYSQLDUMP_OPTIONS} ${DB} | gzip > ${BACKUP_DEST}/${DB}.sql.gz &
(( COMMIT_COUNT++ ))
if [ ${COMMIT_COUNT} -eq ${COMMIT_LIMIT} ]
then
COMMIT_COUNT=0
wait
fi
done
if [ ${COMMIT_COUNT} -gt 0 ]
then
wait
fi
Затем вы можете добавить команды tar в сценарий
Я бы сказал, что вы могли бы сделать это, создав скрипт, который запускается из cron, который выполняет дамп каждой базы данных, а затем последняя операция скрипта архивирует все файлы вместе в один .tar.gz
Итак, в вашем случае вы удалите --all-databases
вариант и поместите туда имя базы данных. Затем повторите эту строку для всех имеющихся у вас баз данных. Затем после создания всех дампов создайте tar со всеми этими файлами и заархивируйте его. И последнее, но не менее важное: выполните необходимую очистку. Поместите все это в сценарий, а затем запустите сценарий из cron.