Назад | Перейти на главную страницу

RAID 10 и LVM

Я только что установил новый SolusVM Xen Node на своем DC. Я попросил их установить CentOS6 с программным RAID 10 и 100 ГБ для получения root-прав, а остальное - в группу LVM для Xen. Все в программном RAID 10. На сервере 4 диска по 1 Тбайт.

Когда я бегу cat /proc/mdstat Я получаю это:

Personalities : [raid10] [raid1] 
md0 : active raid1 sdb1[1] sda1[0] sdc1[2](S) sdd1[3](S)
      255936 blocks super 1.0 [2/2] [UU]

md2 : active raid1 sdb3[1] sdc3[2](S) sdd3[3](S) sda3[0]
      4192192 blocks super 1.1 [2/2] [UU]

md1 : active raid10 sdc2[2](S) sdd2[3](S) sdb2[1] sda2[0]
      104791552 blocks super 1.1 2 near-copies [2/2] [UU]
      bitmap: 1/1 pages [4KB], 65536KB chunk

unused devices: <none>

Хорошо, выглядит хорошо. Когда я бегу vgdisplay хотя он говорит мне, что у меня доступно 3,23 ТБ, с RAID 10 у меня должно быть от 1,7 до 1,8, доступных при максимальном уровне на LVM:

  --- Volume group ---
  VG Name               VolGroup
  System ID             
  Format                lvm2
  Metadata Areas        4
  Metadata Sequence No  1
  VG Access             read/write
  VG Status             resizable
  MAX LV                0
  Cur LV                0
  Open LV               0
  Max PV                0
  Cur PV                4
  Act PV                4
  VG Size               3.23 TiB
  PE Size               32.00 MiB
  Total PE              105888
  Alloc PE / Size       0 / 0   
  Free  PE / Size       105888 / 3.23 TiB

Им требуется целая вечность, чтобы ответить на мой билет с вопросом о том, что произошло. Я прав, это неудачная установка RAID 10 или это то, что должно быть? Почему если так?

Судя по предоставленной вами информации, у меня сложилось впечатление, что группа томов создана из 4 разделов sd [abcd] 2, а не из массива рейдов md1. Вы должны запустить pvdisplay и / или pvs, чтобы подтвердить это.

Если это верно, то можно продолжить удаление LV, VG и PVS из sd [abcd] 2, перестроить RAID 10 и pvcreate / dev / md1; vgcreate ...