Назад | Перейти на главную страницу

Не получается создать zpool, как избавиться от объема рейда intel?

Это компьютер с FreeBSD 9.1 amd64. Установлено 5 дисков. Диски ada0 и ada1 используются с рейдом hw для обеспечения корневой файловой системы:

root@gw:/home/gandalf # ls /dev | grep ada
ada0
ada1
ada2
ada3
ada4
root@gw:/home/gandalf # zpool status
  pool: zroot
 state: ONLINE
  scan: none requested
config:

    NAME          STATE     READ WRITE CKSUM
    zroot         ONLINE       0     0     0
      raid/r0s1a  ONLINE       0     0     0

errors: No known data errors

Я хочу создать raidz-пул для оставшихся дисков:

root@gw:/home/gandalf # zpool create -f data raidz1 ada2 ada3 ada4
cannot create 'data': one or more devices is currently unavailable
root@gw:/home/gandalf # dmesg | grep ada2
ada2 at ata4 bus 0 scbus6 target 0 lun 0
ada2: <WDC WD20EARS-00MVWB0 51.0AB51> ATA-8 SATA 2.x device
ada2: 300.000MB/s transfers (SATA 2.x, UDMA5, PIO 8192bytes)
ada2: 1907729MB (3907029168 512 byte sectors: 16H 63S/T 16383C)
ada2: Previously was known as ad16
root@gw:/home/gandalf # dmesg | grep ada3
ada3 at ata5 bus 0 scbus7 target 0 lun 0
ada3: <SAMSUNG HD103UJ 1AA01118> ATA-7 SATA 2.x device
ada3: 300.000MB/s transfers (SATA 2.x, UDMA5, PIO 8192bytes)
ada3: 953868MB (1953523055 512 byte sectors: 16H 63S/T 16383C)
ada3: Previously was known as ad18
GEOM_RAID: Intel-fb8732fa: Disk ada3 state changed from NONE to ACTIVE.
GEOM_RAID: Intel-fb8732fa: Subdisk Volume0:0-ada3 state changed from NONE to ACTIVE.
root@gw:/home/gandalf # dmesg | grep ada4
ada4 at ata6 bus 0 scbus8 target 0 lun 0
ada4: <TOSHIBA DT01ACA100 MS2OA750> ATA-8 SATA 3.x device
ada4: 300.000MB/s transfers (SATA 2.x, UDMA5, PIO 8192bytes)
ada4: 953869MB (1953525168 512 byte sectors: 16H 63S/T 16383C)
ada4: Previously was known as ad20
root@gw:/home/gandalf # dmesg | grep GEOM_RAID

Ага, значит, ada3 уже входит в очередной том рейда? Посмотрим:

root@gw:/home/gandalf # dmesg | grep GEOM_RAID
GEOM_RAID: SiI-130628113902: Array SiI-130628113902 created.
GEOM_RAID: SiI-130628113902: Disk ada0 state changed from NONE to ACTIVE.
GEOM_RAID: SiI-130628113902: Subdisk SiI Raid1 Set:1-ada0 state changed from NONE to STALE.
GEOM_RAID: SiI-130628113902: Disk ada1 state changed from NONE to ACTIVE.
GEOM_RAID: SiI-130628113902: Subdisk SiI Raid1 Set:0-ada1 state changed from NONE to STALE.
GEOM_RAID: SiI-130628113902: Array started.
GEOM_RAID: SiI-130628113902: Subdisk SiI Raid1 Set:0-ada1 state changed from STALE to ACTIVE.
GEOM_RAID: SiI-130628113902: Subdisk SiI Raid1 Set:1-ada0 state changed from STALE to RESYNC.
GEOM_RAID: SiI-130628113902: Subdisk SiI Raid1 Set:1-ada0 rebuild start at 0.
GEOM_RAID: SiI-130628113902: Volume SiI Raid1 Set state changed from STARTING to SUBOPTIMAL.
GEOM_RAID: SiI-130628113902: Provider raid/r0 for volume SiI Raid1 Set created.
GEOM_RAID: Intel-fb8732fa: Array Intel-fb8732fa created.
GEOM_RAID: Intel-fb8732fa: Force array start due to timeout.
GEOM_RAID: Intel-fb8732fa: Disk ada3 state changed from NONE to ACTIVE.
GEOM_RAID: Intel-fb8732fa: Subdisk Volume0:0-ada3 state changed from NONE to ACTIVE.
GEOM_RAID: Intel-fb8732fa: Array started.
GEOM_RAID: Intel-fb8732fa: Volume Volume0 state changed from STARTING to DEGRADED.
GEOM_RAID: Intel-fb8732fa: Provider raid/r1 for volume Volume0 created.
root@gw:/home/gandalf # 

Да, в самом деле. Хочу полностью избавиться от raid / r1. Однако контроллер уже был установлен в режим «IDE» в BIOS. Так зачем он создает объем рейда ??? Я также попытался перезаписать первые 16k данных ada3 и перезагрузить компьютер, но это не помогло.

Как удалить / dev / raid / r1?

root@gw:/home/gandalf # graid status
   Name      Status  Components
raid/r0  SUBOPTIMAL  ada0 (ACTIVE (RESYNC 4%))
                     ada1 (ACTIVE (ACTIVE))
raid/r1    DEGRADED  ada3 (ACTIVE (ACTIVE))
root@gw:/home/gandalf # graid delete raid/r1
graid: Array 'raid/r1' not found.
root@gw:/home/gandalf # graid delete /dev/raid/r1
graid: Array '/dev/raid/r1' not found.
root@gw:/home/gandalf #

Спасибо

(Я знаю, что вы уже решили свою проблему, но я нашел это, когда искал ответ на свой собственный, который я решил другим способом)

У меня была проблема, похожая на эту (в том, что GRAID мешал моей системе), когда я обновлял FreeBSD с существующим пулом ZFS.

Затем пул ухудшился, и я получил такие же сообщения DMESG, что и вы, о массиве, создаваемом GEOM_RAID.

Мое решение состояло в том, чтобы использовать 'graid stop' и имя, указанное в качестве имени поддиска (в вашем случае это было бы 'Volume0'.

Имя самого массива (Intel-fb8732fa в вашем случае), вероятно, также сработало бы.

Однако вам также необходимо убедиться, что GRAID был затем выгружен из вашего ядра (или как модуль), чтобы он не запускался при каждой загрузке и не делал то же самое.

(массив повторно инициализировал при следующей загрузке, но мне удалось предотвратить это, используя удаление градиента после его восстановления, так как я не отключил градиент полностью)

Это не идеальный ответ, но вот что я сделал. Я отключил функцию RAID контроллера в BIOS. Затем я перезапустил компьютер и вошел в BIOS карты RAID. Он показал диск, который был частью зеркала, но не работал. (Я не знаю, как это произошло, потому что этот диск никогда не был частью зеркала.) Я удалил диск. Затем снова перезагрузите компьютер, установите BIOS с RAID на AHCI. Потом снова перезапустил. И вуаля! FreeBSD теперь могла использовать их как простые диски, и создание zpool прошло нормально.

Мораль истории: неважно, что вы делаете в BIOS. FreeBSD + Graid по-прежнему распознает и использует ваши RAID-массивы, даже если они не работают. Настоящий вопрос: почему я не смог удалить том raid / r1 с помощью graid - я не знаю ответа на этот вопрос. Но мое временное решение работает (единственная проблема в том, что вам нужно перезагружать компьютер несколько раз).