Назад | Перейти на главную страницу

Установка DRBD / LVM / Xen не выполняет повторную синхронизацию / обновление

У меня проблема с кластером высокой доступности, работающим на CentOS 5.4 x86_64.

Используемое программное обеспечение:

Моя конфигурация DRBD синхронизирует логический том. Когда я впервые создаю метаданные для DRBD на логическом томе, он начинает синхронизацию и работает нормально. Проблема, с которой я столкнулся, заключается в том, что он не будет обновлять данные после первой синхронизации, поэтому в основном вы получаете одноразовую копию, а затем она останавливается.

Когда я удаляю логический том на одном из них, воссоздаю его и инициализирую метаданные для DRBD, он просто снова начинает синхронизацию (но снова только один раз).

Он не выдает ошибок рассинхронизации или чего-то еще, cat / proc / drbd показывает мне 2 исправных узла UpToDate.

Вместо этого я попытался синхронизировать физический том, это привело к тому, что Xen не смог загрузить никакую виртуальную машину (смонтированную в привилегированном домене).

Кажется, что он не дает мне дополнительных обновлений, но никаких ошибок нет.

Редактировать://

Я пробовал как активную / пассивную, так и активную / активную настройку.

Я знаю, что он не синхронизируется с помощью примеров файлов, добавляемых в файловую систему ext3, работающую на LVM, настроенном с помощью drbd.

Спасибо за вашу помощь, прикрепил мою конфигурацию drbd;

global { usage-count no; }
resource repdata {
  protocol C;
  startup { wfc-timeout 0; degr-wfc-timeout     120; }
  disk { on-io-error detach; } # or panic, ...
  net {
        allow-two-primaries;
        after-sb-0pri discard-younger-primary;
        after-sb-1pri consensus;
        after-sb-2pri call-pri-lost-after-sb;
        cram-hmac-alg "sha1";
        shared-secret "XXX"; }
  handlers {
        pri-on-incon-degr "echo o > /proc/sysrq-trigger ; halt -f";
        pri-lost-after-sb "echo o > /proc/sysrq-trigger ; halt -f";
  }
  syncer { rate 100M; }
  on node1.xxxxx.com {
    device /dev/drbd0;
    disk /dev/xenVG/vlayer;
    address 10.0.67.50:7788;
    meta-disk internal;
  }
  on node2.xxxxx.com {
    device /dev/drbd0;
    disk /dev/xenVG/vlayer;
    address 10.0.67.60:7788;
    meta-disk internal;
  }
}

Я собираюсь рискнуть; из вашего описания похоже, что вы увеличиваете громкость на обоих участниках DRBD.

Вы не сможете этого сделать, если не используете файловую систему, которая поддерживает общее хранилище, например OCFS2.

Если вы попытаетесь сделать это с файловой системой, такой как ext3 или XFS, вы обнаружите огромные несоответствия в своих данных. Очень похоже на поведение, которое вы описываете.