У нас есть сервер debian linux, который имеет один SSD на 120 ГБ и 2 жестких диска по 2 ТБ в качестве RAID 1. Теперь нам нужно перейти на другой сервер, который имеет 2 SSD по 240 ГБ и один жесткий диск емкостью 2 ТБ. Цель состоит в том, чтобы переместить текущий твердотельный накопитель системного диска объемом 120 ГБ на твердотельный накопитель RAID1 объемом 240 ГБ и переместить данные с текущего жесткого диска RAID1 емкостью 2 ТБ на один жесткий диск емкостью 2 ТБ.
Перемещение 2 ТБ не будет проблемой, поэтому я сосредоточу свой вопрос на SSD системном диске. Наша текущая установка в чем-то сложна. Твердотельный накопитель на 120 ГБ имеет следующие разделы:
fdisk -l /dev/sda
Disk /dev/sda: 120.0 GB, 120034123776 bytes
255 heads, 63 sectors/track, 14593 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Device Boot Start End Blocks Id System
/dev/sda1 * 1 66 523264 83 Linux
Partition 1 does not end on cylinder boundary.
/dev/sda2 66 14594 116696064 83 Linux
и fstab сообщает нам:
cat /etc/fstab
# /etc/fstab: static file system information.
#
# <file system> <mount point> <type> <options> <dump> <pass>
proc /proc proc defaults 0 0
/dev/mapper/vgdebian-root / ext4 errors=remount-ro 0 1
/dev/mapper/vgdebian-swap none swap sw 0 0
/dev/sda1 /boot ext3 defaults 0 2
Таким образом, загрузочный материал с ядром и busybox linux с dropbear находится на / dev / sda1. Затем dropbear помогает расшифровать раздел / dev / sda2, который зашифрован с помощью cryptsetup и управляется LVM.
Я не уверен, как лучше всего переместить весь / dev / sda на вновь созданный SDD-RAID1? Должен ли я сначала сделать dd-копию на один из новых дисков, увеличить раздел / dev / sda2 (каждый из новых твердотельных накопителей теперь составляет 240 ГБ вместо 120 ГБ) и сообщить dropbear о новом SSD на 240 ГБ? Должен ли я затем начать копирование всего первого SDD на 240 ГБ во второй и запустить команду mdadm create array?
Или мне следует создать чистый массив / dev / md0 на новых твердотельных накопителях емкостью 240 ГБ, а затем скопировать весь старый диск на это устройство с именем / dev / md0?
Как dropbear / busybox отреагирует на RAID? Возможно, новый / dev / sda1 нужно скопировать в / dev / sdb1, чтобы dropbear / busybox можно было загружать с обоих новых SSD. RAID1 будет существовать первым при загрузке расшифрованного LVM debian - я прав?
Может быть, кто-нибудь подскажет, можно ли все же переместить такую зашифрованную систему. Спасибо за любую помощь.
Редактировать: Я перенес все 120 ГБ нашего старого SSD на один из новых 240 ГБ SSD нового сервера с помощью команды dd (тут: https://library.linode.com/migration/ssh-copy). Затем я изменил некоторую конфигурацию на dropbear и заново собрал initramfs и перезагрузил - система работает как обычно на новом сервере.
Теперь мне нужно было изменить размер образа старого SSD, поэтому я увеличил / dev / sda2 до максимума, затем увеличил физический том, логический том, а затем и файловую систему. Я перезагрузился, и все работает нормально (тут: http://ubuntuforums.org/showthread.php?p=4530641).
И последнее: перенос всего с одного SSD на RAID1. Кто-нибудь намекает?
Edit2: В настоящее время я пытаюсь запустить RAID1. После того, как старая система заработает на одном из твердотельных накопителей емкостью 240 ГБ, я нашел два руководства по переходу с системы без RAID на RAID1: pug.org/mediawiki/index.php/Vorhandenes_MD-RAID1_im_laufenden_Betrieb_verschl%C3%BCsseln и howtoforge.com/ программное обеспечение raid1-grub-boot-debian-etch-p2. Оба работают от работающей системы. Я использую первый урок для LUKs, а второй - для остальных - надеюсь, это сработает.
Хорошо, теперь он работает!
После того, как я скопировал старый SSD через dd на один из новых SSD, изменил его размер до нового размера 240 ГБ, как описано выше, у меня просто возникла проблема с инициализацией RAID1. Я нашел два руководства, упомянутых в моем Edit2 пост, но на самом деле это был этот урок:
Поэтому мне пришлось настроить новый RAID1 с отсутствующими вторыми дисками (см. Tut) следующим образом:
/dev/sdb1 gets /dev/md0 for /boot
/dev/sdb2 gets /dev/md1 for /
На самом деле / dev / md1 содержит контейнер cryptsetup luks, который затем содержит весь материал LVM, и на этом у нас есть фактическая файловая система:
/dev/sdb2 -> /dev/md1 -> cryptsetup/LUKS -> LVM -> ext4
После создания md0 / md1 я скопировал sda1 с рабочим / boot на md0. Затем я создал новый материал cryptsetup luks на md1. Я расширил свою существующую VGroup на md1 и переместил группу Volume в / dev / md1 с помощью pvmove (это все LVM).
Мне нужно было выполнить chroot для переустановки / обновления grub2, но это может быть только в моем случае. После этого я удалил весь / dev / sda и добавил его в mdadm, так что он был хорошо синхронизирован.
Перезагрузка сработала после 2-3 попыток, теперь все снова работает - через 12 часов работы :)