Я только что установил RAID 10 на старом сервере с 4 жесткими дисками с помощью установщика centos7, но меня очень смущает результат
Вот результат / proc / mdstat
Personalities : [raid10] [raid1]
md123 : active raid1 sda4[0] sdb4[1] sdc4[3] sdd4[2]
1049536 blocks super 1.0 [4/4] [UUUU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md124 : active raid10 sda1[0] sdb1[1] sdd1[2] sdc1[3]
838860800 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU]
bitmap: 0/7 pages [0KB], 65536KB chunk
md125 : active raid1 sda3[0] sdb3[1] sdc3[3] sdd3[2]
1048576 blocks super 1.2 [4/4] [UUUU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md126 : active raid10 sda2[0] sdb2[1] sdc2[3] sdd2[2]
16793600 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU]
md127 : active raid10 sdb5[1] sda5[0] sdc5[3] sdd5[2]
116574208 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU]
bitmap: 1/1 pages [4KB], 65536KB chunk
Я не уверен, что он создал правильный RAID 10. Может кто-нибудь объяснить, что в этом плохого?
Если вы не видите проблемы, я думаю, что установщик centos меня смутил. Мне пришлось выбрать RAID 1 для раздела / boot и раздела / boot / efi. Поэтому мне было интересно, где эти разделы на дисках, и смогу ли я загрузиться в случае сбоя диска
Вот вывод lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 465,8G 0 disk
├─sda1 8:1 0 400,1G 0 part
│ └─md124 9:124 0 800G 0 raid10 /data
├─sda2 8:2 0 8G 0 part
│ └─md126 9:126 0 16G 0 raid10 [SWAP]
├─sda3 8:3 0 1G 0 part
│ └─md125 9:125 0 1G 0 raid1 /boot
├─sda4 8:4 0 1G 0 part
│ └─md123 9:123 0 1G 0 raid1 /boot/efi
└─sda5 8:5 0 55,6G 0 part
└─md127 9:127 0 111,2G 0 raid10 /
sdb 8:16 0 465,8G 0 disk
├─sdb1 8:17 0 400,1G 0 part
│ └─md124 9:124 0 800G 0 raid10 /data
├─sdb2 8:18 0 8G 0 part
│ └─md126 9:126 0 16G 0 raid10 [SWAP]
├─sdb3 8:19 0 1G 0 part
│ └─md125 9:125 0 1G 0 raid1 /boot
├─sdb4 8:20 0 1G 0 part
│ └─md123 9:123 0 1G 0 raid1 /boot/efi
└─sdb5 8:21 0 55,6G 0 part
└─md127 9:127 0 111,2G 0 raid10 /
sdc 8:32 0 465,8G 0 disk
├─sdc1 8:33 0 400,1G 0 part
│ └─md124 9:124 0 800G 0 raid10 /data
├─sdc2 8:34 0 8G 0 part
│ └─md126 9:126 0 16G 0 raid10 [SWAP]
├─sdc3 8:35 0 1G 0 part
│ └─md125 9:125 0 1G 0 raid1 /boot
├─sdc4 8:36 0 1G 0 part
│ └─md123 9:123 0 1G 0 raid1 /boot/efi
└─sdc5 8:37 0 55,6G 0 part
└─md127 9:127 0 111,2G 0 raid10 /
sdd 8:48 0 465,8G 0 disk
├─sdd1 8:49 0 400,1G 0 part
│ └─md124 9:124 0 800G 0 raid10 /data
├─sdd2 8:50 0 8G 0 part
│ └─md126 9:126 0 16G 0 raid10 [SWAP]
├─sdd3 8:51 0 1G 0 part
│ └─md125 9:125 0 1G 0 raid1 /boot
├─sdd4 8:52 0 1G 0 part
│ └─md123 9:123 0 1G 0 raid1 /boot/efi
└─sdd5 8:53 0 55,6G 0 part
└─md127 9:127 0 111,2G 0 raid10 /
sr0 11:0 1 1024M 0 rom
При использовании программного RAID предпочтительнее использовать тот же подход, что и у вас: разбить диски на разделы, а затем создать несколько массивов RAID с разделами с разных дисков.
Конечно, можно создать единый массив из сырых, неразмеченных дисков, а затем разбить получившийся массив RAID. Однако многим инструментам, и особенно загрузчикам, будет трудно правильно работать в таких настройках.
Да, это правильно. Как видно из
# cat /proc/mdstat
Загрузка - RAID1
md125: активный raid1 sda3 [0] sdb3 [1] sdc3 [3] sdd3 [2] 1048576 блоков bitmap super 1.2 [4/4] [UUUU]: 0/1 страницы [0KB], фрагмент 65536KB
А остальные - RAID10
Итак, в основном вы можете узнать, выполнив # cat / proc / mdstat