Назад | Перейти на главную страницу

zpool исчезает при перезагрузке кластера Solaris или выключении питания

У меня следующая настройка

Oracle Solaris 10 -> 5.10 Generic_147147-26 sun4v sparc

Oracle Database 11g Enterprise Edition Release 11.2.0.1.0 - 64-разрядная производственная версия

Oracle Solaris Cluster 3.3u2 для Solaris 10 sparc

Oracle Solaris Cluster Geographic Edition 3.3u2 для Solaris 10 sparc

Я установил Oracle Solaris 10 с ZFS У меня есть пул для / oradata Когда я перезагружаюсь / выключаю питание, мой кластерный пул ZFS исчезает из-за того, что кластер не может запустить ресурс / группу базы данных oracle Каждый раз после перезагрузки / включения и выключения кластера, который я должен сделать вручную

zpool import db
clrg online ora-rg 
...

в чем может быть причина?

единственное, что я знаю db zpool, пул импортируется с ресурсом ora-has, который я создал, как показано ниже (с опцией Zpools)

# /usr/cluster/bin/clresourcegroup create ora-rg
# /usr/cluster/bin/clresourcetype register SUNW.HAStoragePlus 
# /usr/cluster/bin/clresource create -g ora-rg -t SUNW.HAStoragePlus -p Zpools=db ora-has

# zpool status db
  pool: db
  state: ONLINE
 scan: none requested
config:

        NAME        STATE     READ WRITE CKSUM
        db          ONLINE       0     0     0
          mirror-0  ONLINE       0     0     0
            c0t2d0  ONLINE       0     0     0
            c0t3d0  ONLINE       0     0     0

errors: No known data errors


Booting in cluster mode

impdneilab1 console login: Apr 21 17:12:24 impdneilab1 cl_runtime:     NOTICE: CMM: Node impdneilab1 (nodeid = 1) with votecount = 1 added.
Apr 21 17:12:24 impdneilab1 sendmail[642]: My unqualified host name (impdneilab1) unknown; sleeping for retry
Apr 21 17:12:24 impdneilab1 cl_runtime: NOTICE: CMM: Node impdneilab1: attempting to join cluster.
Apr 21 17:12:24 impdneilab1 cl_runtime: NOTICE: CMM: Cluster has reached quorum.
Apr 21 17:12:24 impdneilab1 cl_runtime: NOTICE: CMM: Node impdneilab1 (nodeid = 1) is up; new incarnation number = 1429629142.
Apr 21 17:12:24 impdneilab1 cl_runtime: NOTICE: CMM: Cluster members: impdneilab1.
Apr 21 17:12:24 impdneilab1 cl_runtime: NOTICE: CMM: node reconfiguration #1 completed.
Apr 21 17:12:24 impdneilab1 cl_runtime: NOTICE: CMM: Node impdneilab1: joined cluster.
Apr 21 17:12:24 impdneilab1 in.mpathd[262]: Successfully failed over from NIC nxge1 to NIC e1000g1
Apr 21 17:12:24 impdneilab1 in.mpathd[262]: Successfully failed over from NIC nxge0 to NIC e1000g0
obtaining access to all attached disks

дорогие все, я нашел свой ответ

https://community.oracle.com/thread/3714952?sr=inbox

Такое поведение ожидается с кластерами с одним узлом в конфигурации геокластера:


Если весь кластер выходит из строя, а затем возвращается к работе, ожидается, что версия geo останавливает группы защиты в локальном кластере при загрузке. Причина этого в том, что могло произойти поглощение или хранилище / данные могут быть нетронутыми или доступными (если на основном сайте произошел полный сбой, хотя узлы кластера вернулись обратно, это не означает, что хранилище / данные неповрежденный и готовый взять на себя роль, которую сайт выполнял до сбоя). По этой же причине мы требуем auto_start_on_new_cluster = false в rgs приложения, которые добавляются в группу защиты. После перезагрузки кластера пользователь должен вмешаться и выполнить запуск или выполнить процедуру восстановления после сбоя по мере необходимости.