Если мне нужно переместить SAN (блок) 100 ТБ в GCP, какие у нас есть варианты? Насколько я понимаю, это должен быть постоянный диск. Но текущий максимальный лимит на диск составляет 64 ТБ. Так что мне понадобятся два диска. Но как несколько машин могут совместно использовать это блочное хранилище? В нем говорится, что только одна виртуальная машина может иметь доступ для чтения / записи, а другие должны быть доступны только для чтения.
Спасибо за ответ. Итак, 1. GCP не имеет готового решения для блочного хранилища размером более 64 ТБ в виде большого объема. 2. 64 ТБ может быть W / R только для одной виртуальной машины, а другие виртуальные машины могут иметь только доступ для чтения. 3. Если нам нужно BLOCK-хранилище в GCP, мы должны построить Ceph Storage, используя Compute Engine в качестве базовой линии. 4. Для требований к хранилищу файлов можно использовать NFS или Glueter.
Пожалуйста, поправьте меня, если это неверно.
Очевидно, что массив хранения может представлять LUN меньшего размера на несколько хостов, которые, вероятно, будут разными виртуальными машинами в облаке. Предположим, что по какой-то причине вам нужно представить все на одном хосте.
В настоящее время задокументированные лимиты превышают 64 ТБ дисков, это 64 ТБ. общее количество на экземпляр и меньше для самых маленьких типов экземпляров.
Варианты хранения
К большинству экземпляров может быть подключено до 64 ТБ общего постоянного дискового пространства.
Рассмотрим файловую систему с несколькими узлами, чтобы получить доступ к большему. Либо объектное хранилище, например их облачные корзины, либо протокол на основе файлов, например NFS или SMB.
У GCP есть обзор некоторых файловых продуктов на своей платформе. Это не единственные варианты, по-видимому, также могут работать Ceph или GlusterFS.
Вы можете создать два Filestore экземпляры (которые в основном являются серверами NFS) и монтировать их на нескольких хостах в режиме чтения / записи.
Другой вариант - создать собственный Gluster / Ceph или подобное хранилище.
Предложение GCP до 64 ТБ подключенного стандартного постоянного диска для каждого экземпляра.
Ты можешь использовать Файловые серверы на Compute Engine или называемый файловым хранилищем, это позволяет приложениям читать и обновлять файлы, которые используются на разных машинах. вы можете делиться файлами с помощью Облачное хранилище или Постоянные диски Compute Engine
Облачное хранилище
Чтение и запись выполняются для всего файла, а не для смещений, что означает необходимость полной перезаписи файла при загрузке.
Когда несколько модулей записи работают одновременно, последняя запись побеждает и перезаписывает другие изменения в файле, если вы не предоставите свой собственный механизм синхронизации.
Если вашему приложению требуется доступ к атрибутам метаданных файла POSIX, таким как временные метки последнего изменения, вы должны использовать API облачного хранилища, а не вызов статистики на вашем хосте.
Постоянные диски Compute Engine
С постоянными дисками вы можете присоединять тома как в режиме чтения-записи, так и в режиме только для чтения. Это означает, что вы можете сначала присоединить том к экземпляру, загрузить в него нужные данные, а затем присоединить его как диск только для чтения к сотням виртуальных машин.
Наиболее распространенными протоколами для экспорта общих файловых ресурсов являются сетевая файловая система (NFS) для Linux и Common Internet File System (CIFS) для Windows.
Если задержка не является проблемой и вы не используете экземпляр Windows, вы также можете использовать gcpfuse чтобы сопоставить каталог хранилища с корзиной Cloud Storage. Таким образом, у вас все еще есть блочное хранилище, и вам не нужно использовать несколько постоянных дисков.
Мэтью Уласьен из LinuxAcademy отлично продемонстрировал Вот.
Это в основном подключает сегмент облачного хранилища к каталогу, который вы указываете с помощью простой команды (после установки).
gcsfuse example-bucket /path/to/mount