Назад | Перейти на главную страницу

9211-8i HBA (режим IT) с расширителем Supermicro

Мне удалось добиться того, чтобы все мои диски были перечислены с "multipath -l". Теперь вопрос в том, как добавить их в ZFS zpool? Все попытки использовать имена dm * или / dev / mapper заканчиваются неудачей, если устройство занято или уже активно. Я также не могу найти правильный синтаксис для vdev_id.conf. dmesg определенно сообщает, что оба моих расширителя, и все 24 диска указаны для каждого модуля расширения. LSI заявляет, что они не поддерживают эту функцию в 9211-8i. Это всего лишь часть «поддерживаемых функций», но покупатель должен выяснить, как сделать аварийное переключение или работу с несколькими путями. Конечно, они предлагают более интегрированное решение, в котором они действительно поддерживают эти вещи. Шокер: - \

Может ли кто-нибудь прокомментировать или указать мне в правильном направлении следующее. Я устанавливаю коробку CentOS (Rocks6) с HBA-адаптером LSI 9211-8i (режим IT) и расширителем Supermicro SAS (диск 24). Если я подключу оба кабеля к расширителю, у меня будет 48 устройств, и я полагаю, что мне нужно настроить многопутевость из прочитанного. Но у меня возникли проблемы с поиском подходящего руководства по созданию рабочего файла multipath.conf. Кажется, что Multipath способен обнаруживать все соответствующие идентификаторы устройств, но я никогда не получаю никаких устройств, перечисленных в multipath -l. И я не уверен, поддерживает ли эта установка многопутевость или просто переключение при отказе. Я думаю, чего может не хватать, так это возможности драйвера определить, какие устройства имеют более высокий приоритет. Помимо прочего.

Apr 08 21:16:23 | found multiple paths with wwid 35000c50004415bcb, multipathing sdaw
Apr 08 21:16:23 | Found matching wwid [35000c50004415bcb] in bindings file. Setting alias to mpathp
Apr 08 21:16:23 | sdy: ownership set to mpathp
Apr 08 21:16:23 | sdy: not found in pathvec
Apr 08 21:16:23 | sdy: mask = 0xc
Apr 08 21:16:23 | sdy: get_state
Apr 08 21:16:23 | sdy: path checker = readsector0 (controller setting)
Apr 08 21:16:23 | sdy: checker timeout = 30000 ms (sysfs setting)
Apr 08 21:16:23 | sdy: state = running
Apr 08 21:16:23 | sdy: state = 3
Apr 08 21:16:23 | sdy: state = running
Apr 08 21:16:23 | sdy: detect_prio = 2 (config file default)
Apr 08 21:16:23 | sdy: prio = const (config file default)
Apr 08 21:16:23 | sdy: const prio = 1
Apr 08 21:16:23 | sdaw: ownership set to mpathp
Apr 08 21:16:23 | sdaw: not found in pathvec
Apr 08 21:16:23 | sdaw: mask = 0xc
Apr 08 21:16:23 | sdaw: get_state
Apr 08 21:16:23 | sdaw: path checker = readsector0 (controller setting)
Apr 08 21:16:23 | sdaw: checker timeout = 30000 ms (sysfs setting)
Apr 08 21:16:23 | sdaw: state = running
Apr 08 21:16:23 | sdaw: state = 3
Apr 08 21:16:23 | sdaw: state = running
Apr 08 21:16:23 | sdaw: detect_prio = 2 (config file default)
Apr 08 21:16:23 | sdaw: prio = const (config file default)
Apr 08 21:16:23 | sdaw: const prio = 1
Apr 08 21:16:23 | mpathp: pgfailback = 15 (controller setting)
Apr 08 21:16:23 | mpathp: pgpolicy = multibus (controller setting)
Apr 08 21:16:23 | mpathp: selector = round-robin 0 (controller setting)
Apr 08 21:16:23 | mpathp: features = 0 (internal default)
Apr 08 21:16:23 | mpathp: hwhandler = 0 (controller setting)
Apr 08 21:16:23 | mpathp: rr_weight = 2 (controller setting)
Apr 08 21:16:23 | mpathp: minio = 1 rq (config file default)
Apr 08 21:16:23 | mpathp: no_path_retry = -2 (controller setting)
Apr 08 21:16:23 | pg_timeout = NONE (internal default)
Apr 08 21:16:23 | mpathp: retain_attached_hw_handler = 1 (config file default)
Apr 08 21:16:23 | mpathp: set ACT_CREATE (map does not exist)
Apr 08 21:16:23 | mpathp: domap (0) failure for create/reload map
Apr 08 21:16:23 | mpathp: ignoring map

Я, по сути, сдул как можно больше и начал заново. Во второй раз все, похоже, сработало, как ожидалось. У меня, вероятно, была одна или две переменные в multipath.conf, которые все испортили. На этот раз я позволил ему начать без файла, а затем внес небольшие правки. Что касается CentOS 6.3, я думаю, что это лучший способ начать.

При создании томов ZFS не возникло проблем с момента перезапуска процесса конфигурации с несколькими путями с нуля.