Назад | Перейти на главную страницу

Возможна ли репликация в реальном времени или синхронная репликация по каналу WAN?

Компания, в которой я работаю, стремится реализовать по-настоящему репликацию файлов в реальном времени с блокировкой файлов по каналу WAN, охватывающему более 2000 миль. В настоящее время в нашем офисе на восточном побережье есть установка SAN с 16 дисками. У нас также есть офис в Колорадо, в котором будет точно такая же настройка SAN. Идея состоит в том, чтобы эти две сети SAN всегда содержали одни и те же точные данные, что позволит нам работать с одним и тем же пулом данных, а также обеспечит использование решения для резервного копирования за пределами площадки в случае сбоя на любой стороне. Мы используем Server 2008.

Цель состоит в том, чтобы позволить пользователям в офисе на восточном побережье работать с файлами, а также мгновенно обновлять эти изменения в SAN в Колорадо. Нам также нужна блокировка файла, чтобы не было конфликтов или перезаписываемых изменений, если пользователи попытаются работать с одним и тем же файлом.

Возможен ли вообще этот сценарий со скоростью, которая сделает файлы пригодными для использования? И если да, то какое программное обеспечение нам понадобится для этого? Насколько я понимаю, DFS-R не обеспечивает блокировку файлов, поэтому, если бы мы использовали это, нам нужно было бы использовать сторонний продукт, такой как Peerlock. Но я даже не знаю, возможен ли вариант DFS-R. Может ли он достаточно быстро реплицироваться по каналу WAN? Может любой товар? Похоже, что если бы мы использовали синхронную репликацию, программы были бы неприемлемо медленными, так как каждая запись должна была бы ждать подтверждения с другого конца ссылки. Но если бы мы использовали асинхронную репликацию, на какую задержку мы бы смотрели? Существует продукт от GlobalScape под названием WAFS, который утверждает, что обеспечивает «согласованность файлов с блокировкой файлов в реальном времени, освобождением файлов и синхронизацией», и говорит, что «по мере изменения файлов изменения мгновенно отражаются с помощью интеллектуального байтового сравнения, чтобы минимизировать влияние на пропускную способность сети ». Это звучит как синхронная репликация, но это даже не кажется возможным, учитывая физические ограничения, такие как скорость света.

Если у кого-то есть опыт работы с такого рода установкой или он знает, возможно ли это вообще, я был бы признателен за ваш вклад и предложения, включая рекомендации по программному обеспечению, которое мы должны проверить.

Возможно ли это или нет, зависит от двух (может быть, трех) вещей:

  1. Скорость изменения (т.е. сколько блоков вы загрязняете в день) и
  2. Пропускная способность канала связи между двумя сайтами.
  3. Исходные данные, которые нужно реплицировать

Если ваша скорость изменения слишком высока, никакое сжатие данных никогда не поможет вам в репликации.

При большом объеме данных, с низкой скоростью изменения и медленным соединением, FedEx может вытеснить «исходные» данные, чтобы получить хорошее преимущество при репликации. Кроме этого, законы физики не нарушаются.

Разверните сервер Linux (может быть виртуальная машина) на каждом сайте и настройте Samba, настроив его для использования http://wiki.apache.org/hadoop/MountableHDFS корень. HDFS будет выполнять репликацию и блокировку.

Взгляните на устройства Riverbed Steelhead, которые помогают сократить время ожидания между офисами. У них также есть другие удобные способы управления данными в удаленных офисах. Естественно, в вашем решении есть и другие части, но эти устройства действительно помогли в нашем сценарии. Русло реки