Я использую неуправляемый сервер Ubuntu и из-за недавних проблем с производительностью отправил запрос поставщику только для получения следующего ответа:
"Уважаемый клиент,
по запросу мы проверили ваши диски. Оба диска проходят тест без ошибок и не показывают здесь критических значений. Мы заметили, что RAID находится в деградированном состоянии, поэтому вам нужно будет повторно добавить диск в массив здесь:
-----------------%<-----------------
Personalities : [raid1]
md3 : active raid1 sda4[0]
1839089920 blocks super 1.2 [2/1] [U_]
md2 : active raid1 sda3[0]
1073610560 blocks super 1.2 [2/1] [U_]
md1 : active raid1 sda2[0]
523968 blocks super 1.2 [2/1] [U_]
md0 : active raid1 sda1[0]
16768896 blocks super 1.2 [2/1] [U_]
unused devices: <none>
-----------------%<-----------------"
Google говорит, что U_ указывает на неисправный диск, что, похоже, противоречит тому, что сказала служба поддержки. Как мне действовать дальше?
Что-то вроде
mdadm /dev/mdX -r /dev/sdaY
mdadm /dev/mdX -a /dev/sdaY
И если да, то какие в моем случае X и Y? Если потребуется дополнительная информация о моей конфигурации, сообщите мне.
РЕДАКТИРОВАТЬ, подробнее ниже:
root@Ubuntu-1204-precise-64-minimal /home # df -h
Filesystem Size Used Avail Use% Mounted on
/dev/md2 1008G 26G 931G 3% /
none 4.0K 0 4.0K 0% /sys/fs/cgroup
udev 16G 4.0K 16G 1% /dev
tmpfs 3.2G 504K 3.2G 1% /run
none 5.0M 0 5.0M 0% /run/lock
none 16G 0 16G 0% /run/shm
none 100M 0 100M 0% /run/user
/dev/md1 488M 66M 397M 15% /boot
/dev/md3 1.7T 31G 1.6T 2% /home
root@Ubuntu-1204-precise-64-minimal /home # mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Wed Nov 6 08:02:41 2013
Raid Level : raid1
Array Size : 16768896 (15.99 GiB 17.17 GB)
Used Dev Size : 16768896 (15.99 GiB 17.17 GB)
Raid Devices : 2
Total Devices : 1
Persistence : Superblock is persistent
Update Time : Wed Dec 21 03:50:13 2016
State : clean, degraded
Active Devices : 1
Working Devices : 1
Failed Devices : 0
Spare Devices : 0
Name : rescue:0
UUID : 872ad258:c42ccb36:e9e19c96:98b55ee9
Events : 816844
Number Major Minor RaidDevice State
0 8 1 0 active sync /dev/sda1
1 0 0 1 removed
root@Ubuntu-1204-precise-64-minimal /home # mdadm -D /dev/md1
/dev/md1:
Version : 1.2
Creation Time : Wed Nov 6 08:02:41 2013
Raid Level : raid1
Array Size : 523968 (511.77 MiB 536.54 MB)
Used Dev Size : 523968 (511.77 MiB 536.54 MB)
Raid Devices : 2
Total Devices : 1
Persistence : Superblock is persistent
Update Time : Wed Dec 21 07:30:55 2016
State : clean, degraded
Active Devices : 1
Working Devices : 1
Failed Devices : 0
Spare Devices : 0
Name : rescue:1
UUID : 18cb39fc:9eaea61c:0074a6c2:661b5862
Events : 387
Number Major Minor RaidDevice State
0 8 2 0 active sync /dev/sda2
1 0 0 1 removed
root@Ubuntu-1204-precise-64-minimal /home # mdadm -D /dev/md2
/dev/md2:
Version : 1.2
Creation Time : Wed Nov 6 08:02:42 2013
Raid Level : raid1
Array Size : 1073610560 (1023.87 GiB 1099.38 GB)
Used Dev Size : 1073610560 (1023.87 GiB 1099.38 GB)
Raid Devices : 2
Total Devices : 1
Persistence : Superblock is persistent
Update Time : Wed Dec 21 07:58:52 2016
State : active, degraded
Active Devices : 1
Working Devices : 1
Failed Devices : 0
Spare Devices : 0
Name : rescue:2
UUID : eb9be750:7ff778b4:31fd7ce9:9d86d191
Events : 38799724
Number Major Minor RaidDevice State
0 8 3 0 active sync /dev/sda3
1 0 0 1 removed
root@Ubuntu-1204-precise-64-minimal /home # mdadm -D /dev/md3
/dev/md3:
Version : 1.2
Creation Time : Wed Nov 6 08:02:42 2013
Raid Level : raid1
Array Size : 1839089920 (1753.89 GiB 1883.23 GB)
Used Dev Size : 1839089920 (1753.89 GiB 1883.23 GB)
Raid Devices : 2
Total Devices : 1
Persistence : Superblock is persistent
Update Time : Wed Dec 21 07:57:41 2016
State : clean, degraded
Active Devices : 1
Working Devices : 1
Failed Devices : 0
Spare Devices : 0
Name : rescue:3
UUID : c9b748ef:332d3bf9:5fa8fef1:5b433b0a
Events : 7429895
Number Major Minor RaidDevice State
0 8 4 0 active sync /dev/sda4
1 0 0 1 removed
Добавление обратно члена RAID 1
Чтобы добавить член RAID обратно в массив, используйте:
mdadm <RAID Device> -a <Device to add into the array>
Например:
$ mdadm /dev/md0 -a /dev/sdc1
mdadm: re-added /dev/sdc1
Если вы проверите еще раз с помощью mdadm --detail, вы увидите, что / dev / sdc1 отображается как «восстановление»:
Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
2 8 33 1 spare rebuilding /dev/sdc1
Это означает, что вновь добавленный член синхронизируется с данными другого члена; если вы теперь проверите proc / mdstat, вы можете увидеть прогресс синхронизации - в процентах и на гистограмме:
$ cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid1 sdc1[2] sdb1[0]
976759936 blocks [2/1] [U_]
[>....................] recovery = 1.2% (12409024/976759936) finish=195.2min speed=82312K/sec
unused devices: <none>
Убедитесь, что вы все еще можете видеть свои файлы на диске RAID после добавления нового члена RAID:
$ ls /mnt/raid1
Music lost+found Images Films Misc
Я решил свою проблему. Я не понял, что mdX - это разделы, а sda и sdb - это настоящие физические диски. Итак, sdb отсутствовал, поэтому мне нужно было добавить его обратно. Я выполнил следующие команды:
sgdisk -R /dev/sdb /dev/sda
sgdisk -G /dev/sdb
mdadm /dev/md0 -a /dev/sdb1
mdadm /dev/md1 -a /dev/sdb2
mdadm /dev/md2 -a /dev/sdb3
mdadm /dev/md3 -a /dev/sdb4
После дня повторной синхронизации (можно наблюдать с помощью)
cat /proc/mdstat
То, что я вижу сегодня, снова выглядит хорошо:
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md3 : active raid1 sdb4[2] sda4[0]
1839089920 blocks super 1.2 [2/2] [UU]
md1 : active raid1 sdb2[2] sda2[0]
523968 blocks super 1.2 [2/2] [UU]
md2 : active raid1 sdb3[2] sda3[0]
1073610560 blocks super 1.2 [2/2] [UU]
md0 : active raid1 sdb1[2] sda1[0]
16768896 blocks super 1.2 [2/2] [UU]
Перед добавлением диска, как это предлагает @Tolsadus, рекомендуется проверить состояние вашего диска, используя smartmontools путем выполнения коротких и длинных тестов:
Первоначально вы должны убедиться, что жесткий диск поддерживает SMART и включен:
smartctl -i /dev/sdb
короткий тест:
smartctl -t short /dev/sdb
длинный тест:
smartctl -l selftest /dev/sdb