Я использую rsnapshot на сервере Debian Wheezy. Это было недавно обновлено с squeeze. После обновления я получаю следующую ошибку из hourly
cron работа:
remote rm -rf /share/HDA_DATA/backup/rsnapshot/hourly.3 p1=-rf p2=/backup/rsnapshot/hourly.3/
remote cp -al /share/HDA_DATA/backup/rsnapshot/hourly.0 /share/HDA_DATA/backup/rsnapshot/hourly.1 p1=-al p2=/backup/rsnapshot/hourly.0
Logical volume "rsnapshot" successfully removed
Logical volume "rsnapshot" successfully removed
Unable to deactivate open raid5-dl-real (254:4)
Failed to resume dl.
----------------------------------------------------------------------------
rsnapshot encountered an error! The program was invoked with these options:
/usr/bin/rsnapshot hourly
----------------------------------------------------------------------------
ERROR: Removal of LVM snapshot failed: 1280
Два тома LVM правильно сохранены и Logical volume "rsnapshot" successfully removed
, но потом доходит до громкости dl
в lvm VG raid5
и увидеть невозможно деактивировать raid5-dl-real
.
Имя моего снимка lvm называется raid5/rsnapshot
. raid5-dl-real
не соответствует названию тома - реальное устройство /dev/mapper/raid5-dl
.
Итак, если это сам том dl, зачем lvm пытаться его деактивировать?
Обратите внимание, что изначально это происходило с совершенно другим томом, поэтому я удалил его из резервной копии. Теперь это перешло к этому.
Журнал rsnapshot тоже не очень информативен:
[16/Jul/2013:17:26:26] /sbin/lvcreate --snapshot --size 512M --name rsnapshot /dev/raid5/dl
[16/Jul/2013:17:26:29] /bin/mount /dev/raid5/rsnapshot /mnt/lvm-snapshot
[16/Jul/2013:17:26:32] chdir(/mnt/lvm-snapshot)
[16/Jul/2013:17:26:32] /usr/bin/rsync -a --delete --numeric-ids --relative --delete-excluded . /backup/rsnapshot/hourly.0/dl/
[16/Jul/2013:17:27:57] rsync succeeded
[16/Jul/2013:17:27:57] chdir(/root)
[16/Jul/2013:17:27:57] /bin/umount /mnt/lvm-snapshot
[16/Jul/2013:17:27:58] /home/share/scripts/rsnapshot_lvremove --force /dev/raid5/rsnapshot
[16/Jul/2013:17:29:02] /usr/bin/rsnapshot hourly: ERROR: Removal of LVM snapshot failed: 1280
[16/Jul/2013:17:29:02] rm -f /var/run/rsnapshot.pid
Любые идеи?
Обновить - это только начало происходить на совершенно другом сервере. Та же проблема с LVM.
Я пробовал перенаправить lvremove
команда скрипту:
#!/bin/bash
sync
sleep 600
ls /dev/mapper/raid5-*-real
for i in /dev/mapper/raid5-*-real; do /sbin/dmsetup remove $i ; done
/sbin/lvremove --debug "$@"
Так что это синхронизируется, немного спит, а затем удаляет все -real
карты устройства перед попыткой lvremove.
Даже после всего этого удаление часто не удается. Вот результат работы rsnapshot. Не обращайте внимания на ошибку на полпути, хотя на одном из томов возникла проблема, lvremove завершится ошибкой только позже:
remote cp -al /share/HDA_DATA/backup/rsnapshot/hourly.0 /share/HDA_DATA/backup/rsnapshot/hourly.1 p1=-al p2=/backup/rsnapshot/hourly.0
One or more specified logical volume(s) not found.
/dev/mapper/raid5-crypt-real
/dev/mapper/raid5-db-real
device-mapper: remove ioctl on raid5-crypt-real failed: No such device or address
Command failed
device-mapper: remove ioctl on raid5-db-real failed: Device or resource busy
Command failed
Logical volume "rsnapshot" successfully removed
One or more specified logical volume(s) not found.
/dev/mapper/raid5-crypt-real
/dev/mapper/raid5-db-real
/dev/mapper/raid5-db--var-real
device-mapper: remove ioctl on raid5-crypt-real failed: No such device or address
Command failed
device-mapper: remove ioctl on raid5-db-real failed: No such device or address
Command failed
device-mapper: remove ioctl on raid5-db--var-real failed: Device or resource busy
Command failed
Logical volume "rsnapshot" successfully removed
One or more specified logical volume(s) not found.
/dev/mapper/raid5-crypt-real
/dev/mapper/raid5-db-real
/dev/mapper/raid5-db--var-real
device-mapper: remove ioctl on raid5-crypt-real failed: Device or resource busy
Command failed
device-mapper: remove ioctl on raid5-db-real failed: No such device or address
Command failed
device-mapper: remove ioctl on raid5-db--var-real failed: No such device or address
Command failed
/dev/raid5/rsnapshot: read failed after 0 of 4096 at 42949607424: Input/output error
/dev/raid5/rsnapshot: read failed after 0 of 4096 at 42949664768: Input/output error
/dev/raid5/rsnapshot: read failed after 0 of 4096 at 0: Input/output error
/dev/raid5/rsnapshot: read failed after 0 of 4096 at 4096: Input/output error
Logical volume "rsnapshot" successfully removed
One or more specified logical volume(s) not found.
/dev/mapper/raid5-crypt-real
/dev/mapper/raid5-db-real
/dev/mapper/raid5-db--var-real
/dev/mapper/raid5-dl-real
device-mapper: remove ioctl on raid5-crypt-real failed: No such device or address
Command failed
device-mapper: remove ioctl on raid5-db-real failed: No such device or address
Command failed
device-mapper: remove ioctl on raid5-db--var-real failed: No such device or address
Command failed
device-mapper: remove ioctl on raid5-dl-real failed: Device or resource busy
Command failed
Unable to deactivate open raid5-dl-real (254:25)
Failed to resume dl.
----------------------------------------------------------------------------
rsnapshot encountered an error! The program was invoked with these options:
/usr/bin/rsnapshot hourly
----------------------------------------------------------------------------
ERROR: Removal of LVM snapshot failed: 1280
В случае, если это может помочь кому-либо, у меня была проблема, описанная в Отчет об ошибке Debian с идентификатором 659762.
Я идентифицировал том в приостановленном состоянии с помощью dmsetup info
и активировал его с помощью dmsetup resume
Это разблокировало систему LVM.