Назад | Перейти на главную страницу

Переместите зашифрованную систему debian на luks + lvm с dropbear с одного SSD на SSD-RAID1

У нас есть сервер debian linux, который имеет один SSD на 120 ГБ и 2 жестких диска по 2 ТБ в качестве RAID 1. Теперь нам нужно перейти на другой сервер, который имеет 2 SSD по 240 ГБ и один жесткий диск емкостью 2 ТБ. Цель состоит в том, чтобы переместить текущий твердотельный накопитель системного диска объемом 120 ГБ на твердотельный накопитель RAID1 объемом 240 ГБ и переместить данные с текущего жесткого диска RAID1 емкостью 2 ТБ на один жесткий диск емкостью 2 ТБ.

Перемещение 2 ТБ не будет проблемой, поэтому я сосредоточу свой вопрос на SSD системном диске. Наша текущая установка в чем-то сложна. Твердотельный накопитель на 120 ГБ имеет следующие разделы:

fdisk -l /dev/sda

Disk /dev/sda: 120.0 GB, 120034123776 bytes
255 heads, 63 sectors/track, 14593 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1   *           1          66      523264   83  Linux
Partition 1 does not end on cylinder boundary.
/dev/sda2              66       14594   116696064   83  Linux

и fstab сообщает нам:

cat /etc/fstab
# /etc/fstab: static file system information.
#
# <file system>                         <mount point>   <type>  <options>       <dump>  <pass>
        proc                            /proc           proc    defaults          0       0
        /dev/mapper/vgdebian-root       /               ext4    errors=remount-ro 0       1
        /dev/mapper/vgdebian-swap       none            swap    sw                0       0
        /dev/sda1                       /boot           ext3    defaults          0       2

Таким образом, загрузочный материал с ядром и busybox linux с dropbear находится на / dev / sda1. Затем dropbear помогает расшифровать раздел / dev / sda2, который зашифрован с помощью cryptsetup и управляется LVM.

Я не уверен, как лучше всего переместить весь / dev / sda на вновь созданный SDD-RAID1? Должен ли я сначала сделать dd-копию на один из новых дисков, увеличить раздел / dev / sda2 (каждый из новых твердотельных накопителей теперь составляет 240 ГБ вместо 120 ГБ) и сообщить dropbear о новом SSD на 240 ГБ? Должен ли я затем начать копирование всего первого SDD на 240 ГБ во второй и запустить команду mdadm create array?

Или мне следует создать чистый массив / dev / md0 на новых твердотельных накопителях емкостью 240 ГБ, а затем скопировать весь старый диск на это устройство с именем / dev / md0?

Как dropbear / busybox отреагирует на RAID? Возможно, новый / dev / sda1 нужно скопировать в / dev / sdb1, чтобы dropbear / busybox можно было загружать с обоих новых SSD. RAID1 будет существовать первым при загрузке расшифрованного LVM debian - я прав?

Может быть, кто-нибудь подскажет, можно ли все же переместить такую ​​зашифрованную систему. Спасибо за любую помощь.

Редактировать: Я перенес все 120 ГБ нашего старого SSD на один из новых 240 ГБ SSD нового сервера с помощью команды dd (тут: https://library.linode.com/migration/ssh-copy). Затем я изменил некоторую конфигурацию на dropbear и заново собрал initramfs и перезагрузил - система работает как обычно на новом сервере.

Теперь мне нужно было изменить размер образа старого SSD, поэтому я увеличил / dev / sda2 до максимума, затем увеличил физический том, логический том, а затем и файловую систему. Я перезагрузился, и все работает нормально (тут: http://ubuntuforums.org/showthread.php?p=4530641).

И последнее: перенос всего с одного SSD на RAID1. Кто-нибудь намекает?

Edit2: В настоящее время я пытаюсь запустить RAID1. После того, как старая система заработает на одном из твердотельных накопителей емкостью 240 ГБ, я нашел два руководства по переходу с системы без RAID на RAID1: pug.org/mediawiki/index.php/Vorhandenes_MD-RAID1_im_laufenden_Betrieb_verschl%C3%BCsseln и howtoforge.com/ программное обеспечение raid1-grub-boot-debian-etch-p2. Оба работают от работающей системы. Я использую первый урок для LUKs, а второй - для остальных - надеюсь, это сработает.

Хорошо, теперь он работает!

После того, как я скопировал старый SSD через dd на один из новых SSD, изменил его размер до нового размера 240 ГБ, как описано выше, у меня просто возникла проблема с инициализацией RAID1. Я нашел два руководства, упомянутых в моем Edit2 пост, но на самом деле это был этот урок:

http://www.howtoforge.com/how-to-set-up-software-raid1-on-a-running-lvm-system-incl-grub2-configuration-debian-squeeze-p3

Поэтому мне пришлось настроить новый RAID1 с отсутствующими вторыми дисками (см. Tut) следующим образом:

/dev/sdb1  gets  /dev/md0   for   /boot
/dev/sdb2  gets  /dev/md1   for   /

На самом деле / ​​dev / md1 содержит контейнер cryptsetup luks, который затем содержит весь материал LVM, и на этом у нас есть фактическая файловая система:

 /dev/sdb2 -> /dev/md1 -> cryptsetup/LUKS -> LVM -> ext4

После создания md0 / md1 я скопировал sda1 с рабочим / boot на md0. Затем я создал новый материал cryptsetup luks на md1. Я расширил свою существующую VGroup на md1 и переместил группу Volume в / dev / md1 с помощью pvmove (это все LVM).

Мне нужно было выполнить chroot для переустановки / обновления grub2, но это может быть только в моем случае. После этого я удалил весь / dev / sda и добавил его в mdadm, так что он был хорошо синхронизирован.

Перезагрузка сработала после 2-3 попыток, теперь все снова работает - через 12 часов работы :)