У меня есть 2 диска в зеркальном отображении mdadm (по 3 раздела на каждом диске). На прошлой неделе второй диск (sdb) выпал из массива из-за некоторых ошибок ввода-вывода, которые я все еще исследую. После перезагрузки сервера / proc / mdstat сообщил, что массив ухудшился, как и ожидалось.
Personalities : [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md2 : active raid1 sda3[0]
1410613056 blocks super 1.0 [2/1] [U_]
bitmap: 11/11 pages [44KB], 65536KB chunk
md1 : active (auto-read-only) raid1 sda2[0]
2097088 blocks super 1.0 [2/1] [U_]
bitmap: 1/1 pages [4KB], 65536KB chunk
md0 : active raid1 sda1[0]
52426624 blocks super 1.0 [2/1] [U_]
bitmap: 1/1 pages [4KB], 65536KB chunk
Я повторно добавил первые два раздела к соответствующим массивам, потому что они были небольшими (50 ГБ и 2 ГБ), а третий оставил, потому что я не хотел ждать синхронизации (1,5 ТБ синхронизации длится> 5 часов). Команда grep / var / log / messages для третьего раздела выглядит так:
2014-08-29T07:02:09.168903+02:00 cube kernel: [ 11.460362] md: bind<sdb3>
2014-08-29T07:02:09.168908+02:00 cube kernel: [ 11.681545] md: bind<sda3>
2014-08-29T07:02:09.168913+02:00 cube kernel: [ 11.692178] md: kicking non-fresh sdb3 from array!
2014-08-29T07:02:09.168917+02:00 cube kernel: [ 11.692209] md: unbind<sdb3>
2014-08-29T07:02:09.168922+02:00 cube kernel: [ 11.700679] md: export_rdev(sdb3)
2014-08-29T07:02:09.168942+02:00 cube kernel: [ 11.706311] md/raid1:md2: active with 1 out of 2 mirrors
2014-08-29T07:02:09.168949+02:00 cube kernel: [ 11.829345] created bitmap (11 pages) for device md2
2014-08-29T07:02:09.168954+02:00 cube kernel: [ 11.877779] md2: bitmap initialized from disk: read 1 pages, set 859 of 21525 bits
2014-08-29T07:02:09.168959+02:00 cube kernel: [ 11.915548] md2: detected capacity change from 0 to 1444467769344
2014-08-28T20:17:30.195301+02:00 cube kernel: [ 10.713443] RAID1 conf printout:
2014-08-28T20:17:30.195306+02:00 cube kernel: [ 10.713459] --- wd:1 rd:2
2014-08-28T20:17:30.195333+02:00 cube kernel: [ 10.713469] disk 0, wo:0, o:1, dev:sda3
2014-08-28T20:17:30.195342+02:00 cube kernel: [ 10.810753] md2: unknown partition table
Сегодня я включил сервер, и mdadm сам заново добавил третий раздел. Сначала я думал, что сделал это, но в моей истории команд не было этой команды. Есть ли способ, что это скрытая опция / функция mdadm? Команда grep из сегодняшнего / var / log / messages очень странная:
2014-08-31T11:31:42.388226+02:00 cube kernel: [ 13.240221] md: bind<sda3>
2014-08-31T11:31:42.388234+02:00 cube kernel: [ 13.294663] md/raid1:md2: active with 1 out of 2 mirrors
2014-08-31T11:31:42.388238+02:00 cube kernel: [ 13.382804] created bitmap (11 pages) for device md2
2014-08-31T11:31:42.388243+02:00 cube kernel: [ 13.387596] md2: bitmap initialized from disk: read 1 pages, set 859 of 21525 bits
2014-08-31T11:31:42.388248+02:00 cube kernel: [ 13.433121] md2: detected capacity change from 0 to 1444467769344
2014-08-31T11:31:42.388253+02:00 cube kernel: [ 13.445851] md2: unknown partition table
2014-08-31T11:31:42.388258+02:00 cube kernel: [ 13.448115] md: bind<sdb3>
2014-08-31T11:31:42.388276+02:00 cube kernel: [ 13.448230] RAID1 conf printout:
2014-08-31T11:31:42.388283+02:00 cube kernel: [ 13.448237] --- wd:1 rd:2
2014-08-31T11:31:42.388288+02:00 cube kernel: [ 13.448245] disk 0, wo:0, o:1, dev:sda3
2014-08-31T11:31:42.388292+02:00 cube kernel: [ 13.448252] disk 1, wo:1, o:1, dev:sdb3
2014-08-31T11:31:42.388297+02:00 cube kernel: [ 13.448266] RAID1 conf printout:
2014-08-31T11:31:42.388302+02:00 cube kernel: [ 13.448271] --- wd:2 rd:2
2014-08-31T11:31:42.388306+02:00 cube kernel: [ 13.448277] disk 0, wo:0, o:1, dev:sda3
2014-08-31T11:31:42.388374+02:00 cube kernel: [ 13.448284] disk 1, wo:0, o:1, dev:sdb3