Назад | Перейти на главную страницу

Ошибка загрузки mdadm, инкрементальный запуск массива рейдов Ubuntu SErver 14.04

Я создаю небольшой сервер с Ubuntu 14.04 для Samba, у меня есть один SSD-диск (на нем установлена ​​Ubuntu) и 2 диска SATA емкостью 3 ТБ, диск sata объединен в Raid 1 с mdadm.

Теперь иногда (не каждый раз, я думаю, это может быть связано с грязным завершением работы) система зависает в процессе загрузки:

incrementally starting raid arrays
mdadm: Create user root not found 
mdadm: create group disk not found 
incrementally started raid arrays

эти 4 строки продолжают повторяться. Это действительно странно, потому что загрузочный том (ssd) не настроен как raid, и это не должно на него повлиять?

Важное редактирование: если я нажимаю ctrl + alt + del, сервер перезагружается и запускается нормально, если я смотрю на raid dev mdadm --detail /dev/md0 после загрузки все в порядке.

Я не Linux-профессионал и не нашел в Интернете ничего, связанного с этими ошибками, поэтому теперь я немного застрял, может быть, кто-то знает, в чем проблема, или какие-то дополнительные советы по устранению неполадок (файлы журналов и т. Д.) ?

спасибо за чтение, с уважением, Стефан

На моей машине (доверенной Ubuntu) это было вызвано тем, что новое ядро ​​(xenial 4.4.0 -series) было установлено в / boot и используется по умолчанию.

Я решил эту проблему, загрузив старую версию ядра и запустив:

update-initramfs -u
update-grub

Было это тоже. В моей среде: 2 жестких диска SAS, настроенных как raid10.

Проблема заключалась в том, что mpt2sas.ko не был загружен, поэтому mdadm не видел ни одного диска. Это, в свою очередь, было вызвано ошибкой упаковки: когда apt удалял ненужные пакеты wlan, такие как crda, он также автоматически удалял linux-image-extra-$VERSION пакет, которому на самом деле принадлежит mpt2sas.ko.

Чтобы модуль загружался раньше модулей рейда, я также сделал

echo mpt2sas >>/etc/initramfs-tools/modules

наконец "исправил" ошибку. Краткая версия: Transcend SSD (TS128GSSD25S-M) в сочетании с материнской платой ASRock B85M Pro4 вызвали ошибку. После клонирования системы с помощью clonezilla на Samsung 840 Evo я загружался 30 раз без проблем.

в подробном отчете о проблемах: Но почему mdadm обнаруживает совершенно несвязанные проблемы с массивами рейдов? : Ну, при создании Raid Array (или, может быть, по умолчанию? Я точно не знаю) mdadm поместил скрипт инициализации Raid в initramfs. Этот скрипт проверяет, смонтирован ли rootfs, если rootfs (на моем SSD) не смонтирован, он переходит к функции mountroot_fail

message "Incrementally starting RAID arrays..."
if mdadm --incremental --run --scan; then
message "Incrementally started RAID arrays."
return 0

Это приводит к запутанному выводу. После удаления этих скриптов из initramfs я столкнулся с настоящей проблемой:

Бросил wiating для корневого устройства. Общие проблемы:

  • Загрузочные аргументы (cat / proc / cmdline)
    • проверьте rootdelay = (достаточно ли долго ждала система?)
    • проверьте root = (ждала ли система нужное устройство?)
  • отсутствующие модули (cat / proc / modules; ls / dev)

    ALERT! /dev/disk/by-uuid/01234567-89ab-cdef-0123-456789abcdef does not exist. Dropping to a shell!
    BusyBox v1.13.3 (Ubuntu 1:1.13.3-1ubuntu11) built-in shell (ash)
    Enter 'help' for a list of built-in commands.
    (initramfs) 
    

Поскольку ошибка не сохраняется, я подумал попробовать другой SSD, и BAM работает.

Для меня в решении отсутствовали записи «dm-mod», «dm-snapshot» и «dm-mirror» в / etc / initramfs-tools / modules. Мне потребовалось некоторое время, чтобы бороться с этой проблемой, поскольку сообщения об ошибках говорили о «mdadm» и рейде - так как же можно догадаться, что проблема в lvm.

Моя установка: sda -> sda1 (0xfd linux raid autodetect, 500MB), sda2 (0xfd linux raid autodetect, 250G) то же самое для sdb

  • sda1 + sdb1 --> /dev/md0 (mdadm) "/boot"
  • sda2 + sdb2 --> /dev/md1 (mdadm) --> lvm volume for "swap" and "/"

Я не помещал "/ boot" в LVM, чтобы избежать проблем с grub / lvm. Но похоже я только что попал в очередную тарзану grub / lvm / raid :(

Я предполагаю, что проблема заключалась в том, что grub правильно смонтировал initramfs, а затем не смог смонтировать / (из-за отсутствия модулей lvm) он пытался инициализировать некоторые рейдовые устройства.

В incrementally starting raid arrays вводит в заблуждение, так как это может быть любой отсутствующий модуль, который запрещает / от установки. Также см. Сообщение выше о пропавших без вести mpt2sas модуль.

Дополнительно я изучил dm_ модули не были необходимы, как для dmraid - что неверно: они также необходимы для LVM. В моей ситуации я переключился с dmraid обратно на старый добрый mdadm, потому что dmraid (fakeraid) вызывал проблемы (каталог просто исчез).

И наконец, что не менее важно, я подумал, что могу добавить dm-mod, dm-snapshot anddm-зеркалоto/ и т.д. / модулиand/ и т.д. / initramfs-инструменты / модулиaltough there are not really and.ko` файлы под этим именем. Должны быть какие-то псевдонимы модулей.

Дело в том, что я использовал ядро ​​3.x и обновился до 4.4.x. Загрузка ядра 3.x исправила это, и с тех пор я удалил 4.4, определенно есть что-то несовместимое или проблема с initramfs, которая идет с ним.