У меня следующая настройка
Oracle Solaris 10 -> 5.10 Generic_147147-26 sun4v sparc
Oracle Database 11g Enterprise Edition Release 11.2.0.1.0 - 64-разрядная производственная версия
Oracle Solaris Cluster 3.3u2 для Solaris 10 sparc
Oracle Solaris Cluster Geographic Edition 3.3u2 для Solaris 10 sparc
Я установил Oracle Solaris 10 с ZFS У меня есть пул для / oradata Когда я перезагружаюсь / выключаю питание, мой кластерный пул ZFS исчезает из-за того, что кластер не может запустить ресурс / группу базы данных oracle Каждый раз после перезагрузки / включения и выключения кластера, который я должен сделать вручную
zpool import db
clrg online ora-rg
...
в чем может быть причина?
единственное, что я знаю db zpool, пул импортируется с ресурсом ora-has, который я создал, как показано ниже (с опцией Zpools)
# /usr/cluster/bin/clresourcegroup create ora-rg
# /usr/cluster/bin/clresourcetype register SUNW.HAStoragePlus
# /usr/cluster/bin/clresource create -g ora-rg -t SUNW.HAStoragePlus -p Zpools=db ora-has
# zpool status db
pool: db
state: ONLINE
scan: none requested
config:
NAME STATE READ WRITE CKSUM
db ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
c0t2d0 ONLINE 0 0 0
c0t3d0 ONLINE 0 0 0
errors: No known data errors
Booting in cluster mode
impdneilab1 console login: Apr 21 17:12:24 impdneilab1 cl_runtime: NOTICE: CMM: Node impdneilab1 (nodeid = 1) with votecount = 1 added.
Apr 21 17:12:24 impdneilab1 sendmail[642]: My unqualified host name (impdneilab1) unknown; sleeping for retry
Apr 21 17:12:24 impdneilab1 cl_runtime: NOTICE: CMM: Node impdneilab1: attempting to join cluster.
Apr 21 17:12:24 impdneilab1 cl_runtime: NOTICE: CMM: Cluster has reached quorum.
Apr 21 17:12:24 impdneilab1 cl_runtime: NOTICE: CMM: Node impdneilab1 (nodeid = 1) is up; new incarnation number = 1429629142.
Apr 21 17:12:24 impdneilab1 cl_runtime: NOTICE: CMM: Cluster members: impdneilab1.
Apr 21 17:12:24 impdneilab1 cl_runtime: NOTICE: CMM: node reconfiguration #1 completed.
Apr 21 17:12:24 impdneilab1 cl_runtime: NOTICE: CMM: Node impdneilab1: joined cluster.
Apr 21 17:12:24 impdneilab1 in.mpathd[262]: Successfully failed over from NIC nxge1 to NIC e1000g1
Apr 21 17:12:24 impdneilab1 in.mpathd[262]: Successfully failed over from NIC nxge0 to NIC e1000g0
obtaining access to all attached disks
дорогие все, я нашел свой ответ
https://community.oracle.com/thread/3714952?sr=inbox
Такое поведение ожидается с кластерами с одним узлом в конфигурации геокластера:
Если весь кластер выходит из строя, а затем возвращается к работе, ожидается, что версия geo останавливает группы защиты в локальном кластере при загрузке. Причина этого в том, что могло произойти поглощение или хранилище / данные могут быть нетронутыми или доступными (если на основном сайте произошел полный сбой, хотя узлы кластера вернулись обратно, это не означает, что хранилище / данные неповрежденный и готовый взять на себя роль, которую сайт выполнял до сбоя). По этой же причине мы требуем auto_start_on_new_cluster = false в rgs приложения, которые добавляются в группу защиты. После перезагрузки кластера пользователь должен вмешаться и выполнить запуск или выполнить процедуру восстановления после сбоя по мере необходимости.