Поскольку давний пользователь mdadm только что столкнулся с ошибкой диска, он вспомнил, что я настроил автоматическую отправку сообщений электронной почты для mdadm об ошибках диска.
Поэтому мне просто нужно было вставить свой почтовый адрес внутрь /etc/mdadm/mdadm.conf
MAILADDR someone@exaplme.org
Но я действительно пропустил это во FreeBSD. И поскольку мой ZFS RAID6 теперь работает более полугода, я подумал, что произойдет, если диск выйдет из строя?
Я никогда не настраивал внешний почтовый адрес. Есть ли простой способ выполнить и проверить это?
Как на mdadm:
sudo mdadm –monitor –scan –test
И как мне это сделать в Linux с ZoL (ZFS в Linux)?
РЕДАКТИРОВАТЬ: Извините, я имел в виду АВТОМАТИЧЕСКИЕ отчеты. не планируется.
Я знаю, что мог бы создать скрипт и анализировать zpool status -X каждую минуту. но я думаю, что это не очень элегантный подход к решению проблемы отчетности. Было бы лучше получать мгновенное уведомление о сбое диска (например, mdadm)
РЕДАКТИРОВАТЬ [2]: Спасибо за ваши советы, но я не застрял в некоторых проблемах со сценариями, может ли кто-нибудь помочь мне с моей проблемой цикла for в / bin / sh здесь -> ПАСТЕБИН
ИЗМЕНИТЬ [3]: У меня проблема с циклом. :) (обновить через ПАСТЕБИН)
Есть еще советы по моему сценарию?
Пытаться zfswatcher, это действительно хорошо работает для меня.
Запустите обычный скрипт (cron), который проверяет zpool status -x
вывод. В долгосрочной перспективе проект ZFS на Linux работая над этим в виде демона событий. Системы, производные от Solaris, имели доступ к архитектуре управления отказами.
Что касается автоматических отчетов, то даже коммерческие решения вроде NexentaStor использовать плановые проверки. В этом нет ничего плохого.
Что-то вроде этого:
[root@mdmarra ~]# zpool status -x
all pools are healthy
Против чего-то ужасного вроде:
[root@mdmarra ~]# zpool status -x
pool: vol1
state: UNAVAIL
status: One or more devices are faulted in response to IO failures.
action: Make sure the affected devices are connected, then run 'zpool clear'.
see: http://www.sun.com/msg/ZFS-8000-JQ
scan: scrub repaired 0 in 1h15m with 0 errors on Sun Jul 28 21:15:10 2013
config:
NAME STATE READ WRITE CKSUM
vol1 UNAVAIL 0 0 0 insufficient replicas
mirror-0 DEGRADED 0 0 0
c1t0d0 UNAVAIL 0 0 0 cannot open
c2t0d0 ONLINE 0 0 0
mirror-1 DEGRADED 0 0 0
c1t1d0 UNAVAIL 0 0 0 cannot open
c2t1d0 ONLINE 0 0 0
mirror-2 DEGRADED 0 0 0
spare-0 UNAVAIL 0 0 0 insufficient replicas
c1t2d0 UNAVAIL 0 0 0 cannot open
c2t8d0 UNAVAIL 0 0 0 cannot open
c2t2d0 ONLINE 0 0 0
mirror-3 DEGRADED 0 0 0
c1t3d0 UNAVAIL 0 0 0 cannot open
c2t3d0 ONLINE 0 0 0
mirror-4 DEGRADED 0 0 0
c1t4d0 UNAVAIL 0 0 0 cannot open
c2t4d0 ONLINE 0 0 0
mirror-5 UNAVAIL 0 0 0 insufficient replicas
c1t5d0 UNAVAIL 0 0 0 cannot open
c2t5d0 FAULTED 0 0 0 too many errors
cache
c3t5d0 ONLINE 0 0 0
spares
c2t8d0 UNAVAIL cannot open
errors: No known data errors