Я пытаюсь реализовать кластер REDHAT HA с двумя узлами. Следующее - мое окружение.
VMWare WorkStation 10.01
Я успешно настроил кластер, и все службы работают нормально на сервере Luci и узлах. Целевой объект и инициатор iSCSI также работают нормально. Проблема в том, что имена дисков не сохраняются после перезагрузки каких-либо конкретных узлов. Это создает проблему с переключением на отказ в кластере. После двух дней интенсивных онлайн-исследований я сделал все, что мог, по следующим ссылкам. Но все же я так и остался с этой проблемой именования дисков.
pubs.vmware.com/workstation-10/index.jsp?topic=%2Fcom.vmware.ws.using.doc%2FGUID-E601BE81-59B5-4B6C-BD96-2E1F41CBBDB2.html
http://jablonskis.org/2011/persistent-iscsi-lun-device-name/index.html
P.S: Я использую настройку с одним путем без механизма ограждения, поскольку VMWare не поддерживает это.
Я использовал правила udev и назначил UUID. Я добавил следующее правило;
ЯДРО == "sd [a-z]", SUBSYSTEM == "block", PROGRAM = "/ sbin / scsi_id -g -u -d / dev / $ name", RESULT == "14f504e46494c45526f416b7a4b4e2d4176584a2d45763153" webname "
Теперь, когда я перечисляю "fdisk". Диск для LUN даже не отображается в списке, хотя имя устройства «webcl» отображается в / dev
[корень @ node1 dev] # ls -l webcl
brw-rw ---- 1 корневой диск 8, 32 30 сентября 22:25 webcl
Вместо использования правил udev для сохранения имени у вас есть несколько вариантов:
С целью iscsi вы сможете использовать WWID
вместо этого используя /dev/disk/by-id/scsi-....
адрес.
Если вы перечисляете содержимое этого каталога, должна существовать символическая ссылка на соответствующий диск iscsi (/dev/sda2
). Эта цель не изменится даже при изменении имени устройства.
В качестве альтернативы вы можете использовать диспетчер кластерных логических томов clvmd
для управления диском, поскольку UUID используется в конфигурации clvm.
Чтобы включить это - установите и включите clvmd
на обоих узлах выполните следующие действия, чтобы подвести диск clvmd
контроль.
Инициализируйте диск:
pvcreate /dev/sda2
Бегать pvscan
на другом узле (ах).
Создайте группу томов, инкапсулирующую диск (измените имя):
vgcreate iscsi_cvg /dev/sda2
Создайте логический том, используя всю группу томов:
lvcreate -l 100%FREE -n iscsishareddisk iscsi_cvg
Бегать lvscan
на другом узле (ах)
Создайте файловую систему:
mkfs.ext4 /dev/iscsi_cvg/iscsishareddisk
На обоих узлах создайте каталог монтирования, проверьте, можно ли монтировать и размонтировать том по отдельности.
Убедитесь, что флаг кластера установлен в группе томов с vgs
команда (последний атрибут будет c)
Чтобы включить это, если он отсутствует:
vgchange -cy iscsi_cvg --config 'global {locking_type = 3}'
Убедитесь, что locking_type
установлен на 3
в /etc/lvm/lvm/conf
.
Затем на этот кластерный том можно ссылаться в вашем cluster.conf
.
Перед добавлением его в конфигурацию кластера убедитесь, что логический том больше не активен:
lvchange -an iscsi_cvg
Очень полезная статья о целях iscsi в кластерной среде: ВОТ.
Просто игнорируйте многопутевость, если вы хотите придерживаться решения с одним путем.