Назад | Перейти на главную страницу

RAID 10 на Centos 7

Я только что установил RAID 10 на старом сервере с 4 жесткими дисками с помощью установщика centos7, но меня очень смущает результат

Вот результат / proc / mdstat

Personalities : [raid10] [raid1]
md123 : active raid1 sda4[0] sdb4[1] sdc4[3] sdd4[2]
      1049536 blocks super 1.0 [4/4] [UUUU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md124 : active raid10 sda1[0] sdb1[1] sdd1[2] sdc1[3]
      838860800 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU]
     bitmap: 0/7 pages [0KB], 65536KB chunk

md125 : active raid1 sda3[0] sdb3[1] sdc3[3] sdd3[2]
     1048576 blocks super 1.2 [4/4] [UUUU]
     bitmap: 0/1 pages [0KB], 65536KB chunk

md126 : active raid10 sda2[0] sdb2[1] sdc2[3] sdd2[2]
     16793600 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU]

md127 : active raid10 sdb5[1] sda5[0] sdc5[3] sdd5[2]
     116574208 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU]
     bitmap: 1/1 pages [4KB], 65536KB chunk

Я не уверен, что он создал правильный RAID 10. Может кто-нибудь объяснить, что в этом плохого?

Если вы не видите проблемы, я думаю, что установщик centos меня смутил. Мне пришлось выбрать RAID 1 для раздела / boot и раздела / boot / efi. Поэтому мне было интересно, где эти разделы на дисках, и смогу ли я загрузиться в случае сбоя диска

Вот вывод lsblk

NAME      MAJ:MIN RM   SIZE RO TYPE   MOUNTPOINT
sda         8:0    0 465,8G  0 disk
├─sda1      8:1    0 400,1G  0 part
│ └─md124   9:124  0   800G  0 raid10 /data
├─sda2      8:2    0     8G  0 part
│ └─md126   9:126  0    16G  0 raid10 [SWAP]
├─sda3      8:3    0     1G  0 part
│ └─md125   9:125  0     1G  0 raid1  /boot
├─sda4      8:4    0     1G  0 part
│ └─md123   9:123  0     1G  0 raid1  /boot/efi
└─sda5      8:5    0  55,6G  0 part
  └─md127   9:127  0 111,2G  0 raid10 /
sdb         8:16   0 465,8G  0 disk
├─sdb1      8:17   0 400,1G  0 part
│ └─md124   9:124  0   800G  0 raid10 /data
├─sdb2      8:18   0     8G  0 part
│ └─md126   9:126  0    16G  0 raid10 [SWAP]
├─sdb3      8:19   0     1G  0 part
│ └─md125   9:125  0     1G  0 raid1  /boot
├─sdb4      8:20   0     1G  0 part
│ └─md123   9:123  0     1G  0 raid1  /boot/efi
└─sdb5      8:21   0  55,6G  0 part
  └─md127   9:127  0 111,2G  0 raid10 /
sdc         8:32   0 465,8G  0 disk
├─sdc1      8:33   0 400,1G  0 part
│ └─md124   9:124  0   800G  0 raid10 /data
├─sdc2      8:34   0     8G  0 part
│ └─md126   9:126  0    16G  0 raid10 [SWAP]
├─sdc3      8:35   0     1G  0 part
│ └─md125   9:125  0     1G  0 raid1  /boot
├─sdc4      8:36   0     1G  0 part
│ └─md123   9:123  0     1G  0 raid1  /boot/efi
└─sdc5      8:37   0  55,6G  0 part
  └─md127   9:127  0 111,2G  0 raid10 /
sdd         8:48   0 465,8G  0 disk
├─sdd1      8:49   0 400,1G  0 part
│ └─md124   9:124  0   800G  0 raid10 /data
├─sdd2      8:50   0     8G  0 part
│ └─md126   9:126  0    16G  0 raid10 [SWAP]
├─sdd3      8:51   0     1G  0 part
│ └─md125   9:125  0     1G  0 raid1  /boot
├─sdd4      8:52   0     1G  0 part
│ └─md123   9:123  0     1G  0 raid1  /boot/efi
└─sdd5      8:53   0  55,6G  0 part
  └─md127   9:127  0 111,2G  0 raid10 /
sr0        11:0    1  1024M  0 rom

При использовании программного RAID предпочтительнее использовать тот же подход, что и у вас: разбить диски на разделы, а затем создать несколько массивов RAID с разделами с разных дисков.

Конечно, можно создать единый массив из сырых, неразмеченных дисков, а затем разбить получившийся массив RAID. Однако многим инструментам, и особенно загрузчикам, будет трудно правильно работать в таких настройках.

Да, это правильно. Как видно из

# cat /proc/mdstat

Загрузка - RAID1

md125: активный raid1 sda3 [0] sdb3 [1] sdc3 [3] sdd3 [2] 1048576 блоков bitmap super 1.2 [4/4] [UUUU]: 0/1 страницы [0KB], фрагмент 65536KB

А остальные - RAID10

Итак, в основном вы можете узнать, выполнив # cat / proc / mdstat