Моя установка:
Кластер Hyper-V с 2 узлами (24 ядра AMD, 64 ГБ ОЗУ) подключается через 2 процессора 25-10g к сети хранения данных p2000g3 (12x300 ГБ Enterprise SAS 10k 2,5 дюйма). Каждый узел является инициатором iSCSI.
Проблема:
Когда я запускаю виртуальную машину на узле и запускаю базовую программу тестирования диска Crystamark, мои МБ / с равны 80 для чтения и записи. Это плохо.
Что, вы парни, думаете ?
Обновление1: Вот мой первый вывод после долгого дня тестирования. Кажется, я не могу ожидать большего, чем пропускная способность одной гигабайтной карты Ethernet. Когда нет mpio и поэтому только одно соединение, полоса пропускания используется на 100%, когда 2 пути mpio, каждый путь занимает 50%, когда 3 пути mpio 33% ... Включение управления потоком не делает больше (кажется, меньше ..) , не более для включения jumbo-кадров. Я не могу представить, что застрял на 1 ГБ, у p2000 есть 2 контроллера с 4 портами каждый. Скажите, пожалуйста, это можно агрегировать :)
Напомним, мои тесты: Последовательный запуск диска Crystalmark (1000 МБ) на виртуальной машине дает мне от 80 до 100 МБ / с, тот же тест с виртуальным хранилищем локально на хосте Hyperv дает 250.
Ваша производительность будет зависеть от типа теста. Если ты делаешь последовательный читает или пишет, вы должны иметь возможность получить от дисков большое количество МБ / с. Это бесполезный тест, потому что это не тот тип ввода-вывода, который обычно выполняет виртуальный сервер.
Если вы делаете небольшой блок случайный IO, ваши записи будут кэшироваться до тех пор, пока у вас не закончится кеш, и только часть ваших чтений будет приходить из кеша. Все остальное будет отправлено на диск, и тогда ваша производительность в мегабайтах / с не имеет значения. Количество операций ввода-вывода в секунду будет вас ограничивать. Каждый диск размером 10 КБ может добавить до пары сотен операций ввода-вывода в секунду, поэтому с 12 дисками вы не сможете получить больше нескольких тысяч.
изменить: если вы используете сетевой коммутатор 1 Гбит / с, то максимальная пропускная способность, которую вы можете получить, составляет 80 МБ / с, что соответствует тому, что вы видите. Добавьте сетевые порты на коммутаторе и посмотрите, улучшится ли ситуация.
Несколько лет назад у нас была очень похожая установка. Это сложная установка с множеством движущихся частей, через которые нужно смотреть. Вот основные области для проверки работоспособности:
Это некоторые реальные базовые отправные точки. В худшем случае позвоните своим поставщикам, у них обычно есть хорошие официальные документы или тематические исследования по подобным вещам.
80 Мбит / с = 1 Гбит / с Ethernet, либо вы используете только 1 NIC, либо у вас неправильно настроен MPIO.
если у вас есть 2x1gig соединения на сервер и 2x1gig соединения на узел SAN, то у вас неправильно сконфигурирован MPIO на сервере или передается балансировка нагрузки по SAN.
если ваша SAN не поддерживает балансировку нагрузки передачи к одному хозяину тогда вам не повезло: максимум, что вы сможете получить ДО хоста, - это одна ссылка.
я не могу найти никакой документации, что p2000 поддерживает балансировку нагрузки передачи; я нахожу только ссылки на активные / пассивные контроллеры.