Есть ли у кого-нибудь опыт работы с конфигурацией рейдов на этих новых серверах Thinkpad?
Моя проблема заключается в следующем: чтобы иметь возможность загружать этот сервер, я должен поместить диски в RAID1, чтобы создать устройство SCM.
Я сделал это с дисками 2x1TB (тогда из-за того, что установщик debian wheezy даже не распознал raid-контроллер, мне пришлось установить систему извне с помощью debootstrap на другом компьютере).
В итоге у меня получилась работающая система, и теперь я хочу поставить ее в рейд.
md126 : active raid1 sda[0]
975585280 blocks super external:/md127/0 [2/1] [U_]
md127 : inactive sda[0](S)
1177304 blocks super external:ddf
unused devices: <none>
Однако, когда я пытаюсь прочитать второй диск (да, он получил букву диска sdg) в массив, я получаю это сообщение об ошибке:
mdadm --manage /dev/md126 --add /dev/sdg
mdadm: Cannot add disks to a 'member' array, perform this operation on the parent container
Если я исследую 2 диска отдельно, я вижу:
/dev/sda:
Magic : de11de11
Version : 01.00.00
Controller GUID : 4C534920:20202020:FFFFFFFF:FFFFFFFF:FFFFFFFF:FFFFFFFF
(LSI )
Container GUID : 4C534920:20202020:80861D60:00000000:4229D10D:4229E531
(LSI 03/05/15 16:32:29)
Seq : 00000001
Redundant hdr : yes
Virtual Disks : 1
VD GUID[0] : 4C534920:20202020:80861D60:00000000:422AD2BC:00001450
(LSI 03/06/15 10:51:56)
unit[0] : 0
state[0] : Degraded, Not Consistent
init state[0] : Fully Initialised
access[0] : Read/Write
Name[0] :
Raid Devices[0] : 2 (0 1)
Chunk Size[0] : 128 sectors
Raid Level[0] : RAID1
Device Size[0] : 975585280
Array Size[0] : 975585280
Physical Disks : 2
Number RefNo Size Device Type/State
0 ee4c2c39 975585280K /dev/sda active/Online
1 f70c96f2 975585280K active/Offline, Failed, Missing
/dev/sdg:
Magic : de11de11
Version : 01.00.00
Controller GUID : 4C534920:20202020:FFFFFFFF:FFFFFFFF:FFFFFFFF:FFFFFFFF
(LSI )
Container GUID : 4C534920:20202020:80861D60:00000000:4229D10D:4229E531
(LSI 03/05/15 16:32:29)
Seq : 0000002b
Redundant hdr : yes
Virtual Disks : 1
VD GUID[0] : 4C534920:20202020:80861D60:00000000:4229F055:00001450
(LSI 03/05/15 18:45:57)
unit[0] : 0
state[0] : Degraded, Consistent
init state[0] : Not Initialised
access[0] : Read/Write
Name[0] :
Raid Devices[0] : 2 (0 1)
Chunk Size[0] : 128 sectors
Raid Level[0] : RAID1
Device Size[0] : 975585280
Array Size[0] : 975585280
Physical Disks : 2
Number RefNo Size Device Type/State
0 ee4c2c39 975585280K active/Offline, Failed, Missing
1 f70c96f2 975585280K /dev/sdg active/Online
Что на самом деле происходит с этими md126 аппаратами ?! Я думаю, что этот рейд-контроллер lenovo - не более чем поддельный рейд-контроллер то, что я встречал много на серверах HP, позволяет вам создать массив рейдов, но затем в вашей ОС сделать репликацию рейда самостоятельно, так что нет ничего лучше, чем делать это самостоятельно с помощью MDAM. На самом деле это еще более излишне усложняет ситуацию.
Я бы с удовольствием пропустил весь этот рейд оборудования, если бы я мог заставить машину загружаться другим способом ...
Я думаю, что ответ на этот вопрос будет полезен многим другим людям, которые столкнутся с этой относительно новой серией серверов.
Спасибо
Итак, я отвечаю на свой вопрос для всеобщего блага, кому приходится иметь дело с поддельными рейд-контроллерами такого типа.
Вот что я сделал:
1, обнулить суперблок на втором диске (sdg), который был записан в него BIOS при запуске
mdadm --zero-superblock /dev/sdg
2. Интересно, что md126 не является основным рейдовым массивом:
mdadm -Q --examine /dev/md126
/dev/md126:
MBR Magic : aa55
Partition[0] : 979902 sectors at 63 (type 83)
Partition[1] : 195318270 sectors at 979965 (type 83)
Partition[2] : 29302560 sectors at 196298235 (type 82)
Partition[3] : 1727924373 sectors at 225600795 (type 83)
3, это md127. Итак, все, что я сделал, это прочитал этот новый диск на md127 с помощью:
mdadm --manage /dev/md127 --force --add /dev/sdg
Пришлось форсировать, потому что привод был немного больше.
4, сейчас рейд восстанавливается.
Personalities : [raid1]
md126 : active raid1 sdg[2] sda[0]
975585280 blocks super external:/md127/0 [2/1] [U_]
[>....................] recovery = 3.3% (32576000/975585280) finish=203.9min speed=77076K/sec
md127 : inactive sdg[1](S) sda[0](S)
2354608 blocks super external:ddf
unused devices: <none>
Что мне любопытно, так это посмотреть, что рейдовая биография Lenovo скажет о массиве при следующей перезагрузке. Распознает ли он его как здоровый массив или скажет, что он все еще деградирован (что я подозреваю). Я настоятельно рекомендую никому не покупать эти дешевые дерьмовые Thinkservers, бренд lenovo даже не заслуживает больше капитализации из-за мусорных ноутбуков, которые они производят в последнее время (то же самое касается серверов).
Также есть что-то связанное с устройством сопоставления ioctl в журналах после начала восстановления. Надеюсь, это не повлияет на перестройку массива.
[Tue Mar 17 12:29:07 2015] md: recovery of RAID array md126
[Tue Mar 17 12:29:07 2015] md: minimum _guaranteed_ speed: 1000 KB/sec/disk.
[Tue Mar 17 12:29:07 2015] md: using maximum available idle IO bandwidth (but not more than 200000 KB/sec) for recovery.
[Tue Mar 17 12:29:07 2015] md: using 128k window, over a total of 975585280k.
[Tue Mar 17 12:29:08 2015] device-mapper: table: 254:0: mirror: Device lookup failure
[Tue Mar 17 12:29:08 2015] device-mapper: ioctl: error adding target to table
[Tue Mar 17 12:29:09 2015] device-mapper: table: 254:0: mirror: Device lookup failure
[Tue Mar 17 12:29:09 2015] device-mapper: ioctl: error adding target to table
[Tue Mar 17 12:29:16 2015] device-mapper: table: 254:1: mirror: Device lookup failure
[Tue Mar 17 12:29:16 2015] device-mapper: ioctl: error adding target to table
(это не ответ, а просто побочное примечание для тех, кто пытается исправить проблему с помощью Webmin - см. ответ выше для лучшего объяснения)
Я попытался добавить запасной через Webmin (способ пользовательского интерфейса), но поскольку он неправильно также видит md126 в качестве основного массива рейдов, это было бы невозможно в Webmin .. однако я смог увидеть восстановить прогресс в Webmin> Оборудование> Linux RAID .:
Обнуление суперблока на запасном не сработало в моем случае, поэтому я просто пропустил этот шаг. В моем случае также md127 также был основным массивом и простое добавление запасного к правильному устройству RAID работало:
mdadm --manage /dev/md127 --add /dev/sdc
Это не удалось в Webmin, потому что он мог:
mdadm --manage /dev/md126 --add /dev/sdc
Вот мои шаги (вверху консоли, внизу Webmin):