У меня есть рабочий стол Ubuntu (13.04) с поддержкой ZFS благодаря PPA zfs-native/stable
.
Все работало очень хорошо. Я создал пул RAID-Z1 под названием inground
с помощью следующей команды:
zpool create inground raidz1 sdb sdc sdd sde sdf
Позже, не сумев получить доступ к созданной мной точке монтирования, я запустил zpool status
и чуть не упал со стула, когда увидел 1 unavailable
и 2 corrupt
vdevs в пул. После нескольких глубоких вдохов я заметил, что, когда я недавно перезагружал систему, у меня был флэш-накопитель в долларах США в одном из передних портов моей башни. Это вызвало все /dev/sd*
сопоставления изменились, и все имело смысл. Я вынул USB-накопитель, перезагрузился, и все было хорошо.
У меня вопрос, как мне предотвратить это в будущем? Есть ли другой канонический идентификатор, который я могу использовать для обозначения физических дисков при добавлении их в качестве vdev в zpool?
Хорошие новости: вы можете изменить схему конфигурации vdev, экспортировав и повторно импортировав свой пул. (из ZFS в Linux документы)
admin@Test-ZFS:~$ sudo zpool status tankz
pool: tankz
state: ONLINE
scan: resilvered 15K in 0h0m with 0 errors on Tue Feb 25 16:36:18 2014
config:
NAME STATE READ WRITE CKSUM
tankz ONLINE 0 0 0
raidz1-0 ONLINE 0 0 0
sdc ONLINE 0 0 0
sde ONLINE 0 0 0
sdd ONLINE 0 0 0
errors: No known data errors
admin@Test-ZFS:~$ sudo zpool export tankz
admin@Test-ZFS:~$ sudo zpool import -d /dev/disk/by-id tankz
admin@Test-ZFS:~$ sudo zpool status tankz
pool: tankz
state: ONLINE
scan: resilvered 15K in 0h0m with 0 errors on Tue Feb 25 16:36:18 2014
config:
NAME STATE READ WRITE CKSUM
tankz ONLINE 0 0 0
raidz1-0 ONLINE 0 0 0
ata-VBOX_HARDDISK_VB3b2901c3-c7700ec9 ONLINE 0 0 0
ata-VBOX_HARDDISK_VB4ad696a7-d3e6b542 ONLINE 0 0 0
ata-VBOX_HARDDISK_VBbed2a908-5ddcaedb ONLINE 0 0 0
errors: No known data errors
Вы не должны использовать имена / dev / sdX для пулов ZFS в случаях, когда имена устройств SCSI могут измениться. См. Параметры в / dev / disk ...
[root@Davalan /dev/disk]# cd by-
by-id/ by-path/ by-uuid/
Я обычно использую /dev/disk/by-id
записи для моих Linux zpools ...
# zpool status
pool: vol1
state: ONLINE
scan: scrub repaired 0 in 1h44m with 0 errors on Sat Jul 6 13:12:06 2013
config:
NAME STATE READ WRITE CKSUM
vol1 ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
scsi-35000c5003af99fa7 ONLINE 0 0 0
scsi-35000cca0153ec2d0 ONLINE 0 0 0
mirror-1 ONLINE 0 0 0
scsi-35000cca01540e340 ONLINE 0 0 0
scsi-35000cca01540e298 ONLINE 0 0 0
cache
ata-STEC_M8IOPS-50_STM000136649 ONLINE 0 0 0
и...
[root@Davalan /dev/disk/by-id]# ls -1
ata-STEC_M8IOPS-50_STM000136649
ata-STEC_M8IOPS-50_STM000136649-part1
ata-STEC_M8IOPS-50_STM000136649-part9
scsi-35000c5003af99fa7
scsi-35000c5003af99fa7-part1
scsi-35000c5003af99fa7-part9
scsi-35000cca0153ec2d0
scsi-35000cca0153ec2d0-part1
scsi-35000cca0153ec2d0-part9
scsi-35000cca01540e298
scsi-35000cca01540e298-part1
scsi-35000cca01540e298-part9
scsi-35000cca01540e340
scsi-35000cca01540e340-part1
scsi-35000cca01540e340-part9
scsi-SATA_STEC_M8IOPS-50_STM000136649
scsi-SATA_STEC_M8IOPS-50_STM000136649-part1
scsi-SATA_STEC_M8IOPS-50_STM000136649-part9
wwn-0x5000a720300411f7
wwn-0x5000a720300411f7-part1
wwn-0x5000a720300411f7-part9
wwn-0x5000c5003af99fa7
wwn-0x5000c5003af99fa7-part1
wwn-0x5000c5003af99fa7-part9
wwn-0x5000cca0153ec2d0
wwn-0x5000cca0153ec2d0-part1
wwn-0x5000cca0153ec2d0-part9
wwn-0x5000cca01540e298
wwn-0x5000cca01540e298-part1
wwn-0x5000cca01540e298-part9
wwn-0x5000cca01540e340
wwn-0x5000cca01540e340-part1
wwn-0x5000cca01540e340-part9