Мы находимся в процессе настройки двух серверов виртуализации (DELL R710, Dual Quadcore Xeon CPUs на 2,3 ГГц, 48 ГБ ОЗУ) для VMware VSphere с хранилищем на SAN (DELL Powervault MD3000i, 10 дисков SAS по 500 ГБ, RAID 5), которые будут подключены через iSCSI к коммутатору Gbit Ethernet (DELL Powerconnect 5424, они называют его «оптимизированным для iSCSI»).
Может ли кто-нибудь дать оценку, насколько быстрее будет решение на основе волоконно-оптического канала (или, что лучше, «ощущение»)? Я не имею в виду номинальное преимущество в скорости, я имею в виду, насколько быстрее виртуальные машины будут эффективно работать?
Мы говорим в два раза быстрее, в пять, в 10 раз быстрее? Оправдывает ли это цену?
PS: Мы не говорим о сильно используемых серверах баз данных или серверах обмена. Средняя загрузка ЦП большинства виртуализированных серверов ниже 3-5%.
Здесь есть много определяющих факторов, влияющих на ощущение производительности. Вы можете подумать о настройке Jumbo Frames. Скотт Лоу недавно опубликовал сообщение в блоге Вот Это показывает, что он сделал для этого.
Вы упоминаете, что у гостей будет низкая загрузка ЦП - это всегда отличные кандидаты для виртуализации, - но разница между FiberChannel и iSCSI пока не играет роли.
Если ваши виртуальные машины будут выполнять операции с интенсивным хранением, то вы должны учитывать, что скорость передачи операции чтения / записи с хоста виртуальной машины в массив хранения может стать вашим узким местом.
Поскольку ваша типичная скорость передачи iSCSI составляет 1 Гбит / с (через Ethernet), а FC обычно составляет около 2-4 Гбит / с (в зависимости от того, сколько денег вы готовы потратить), то вы можете заявить, что скорость передачи FC примерно в два раза выше. .
Также есть новые коммутаторы 10Gig-E, но ваши Powervault и Powerconnect еще не поддерживают их.
Однако на самом деле это не означает, что машины будут работать быстрее, так как если бы они запускали приложения с низким объемом операций ввода-вывода, они могли бы фактически работать с той же скоростью.
Споры о том, что лучше, никогда не заканчиваются и в основном будут зависеть от вашей собственной оценки и результатов.
У нас есть несколько развертываний мини-облаков на основе FC и мини-облаков на основе iSCSI, и оба они работают довольно хорошо. Мы обнаружили, что узким местом является уровень массива хранения, а не трафик iSCSI через 1 Гбит Ethernet.
Вы, скорее всего, будете ограничены количеством веретен, а не скоростью вашего транспорта.
То есть да, чистая скорость FC выше, чем iSCSI, но если вы (гипотетически) пытаетесь запустить 200 виртуальных машин на 6 шпинделях (физических дисках), вы увидите худшую производительность, чем если бы вы пытались запустить 200 виртуальных машин на 24 шпинделях по iSCSI. В нашей почти бездействующей лабораторной среде мы выполняем около 2 операций NFS на виртуальную машину (240 против 117), так что это может дать некоторое представление о том, сколько у вас будет операций ввода-вывода.
Я не думаю, что вы увидите большую разницу в зависимости от транспорта, если только вы не знаете, что у вас очень высокий непрерывный ввод-вывод (поток журнала данных тяжелых инструментов? Архивирование видео? Я не знаю, какие реальные сценарии могут быть такими , Если честно).
Я действительно не думаю, что вы заметите транспорт, если только количество операций ввода-вывода в секунду на дисках не превысит вашу нагрузку. Я бы выбрал другие критерии для принятия решений (простота управления, стоимость и т. Д.)
Мы использовали NFS в NetApp в последний раз, когда добавляли хранилище.
Это очень заметное изменение. Хотя, по правде говоря, мы переходили от iSCSI на базе Linux (поддельный iscsi) к оптоволокну, так называемой тестовой среде, к производственной, когда моя последняя компания развертывала общий хостинг на основе VMware. Наш представитель VMware заявил, что оптоволокно значительно снижает накладные расходы, когда речь идет о нескольких виртуальных машинах на одном хосте ESX, которым требуется доступ к общему хранилищу. Я заметил, что общее использование экземпляра виртуальной машины Win2k3 удвоилось по производительности, но дисковый ввод-вывод, который я тестировал с помощью hdtune на виртуальной машине, был быстрее, чем стандартный ввод-вывод нашего Dell 2850 (3 x 73 ГБ в RAID 5 на perc 4, если память меня обслуживает) . Допустим, у нас было около 5 виртуальных машин на каждом хосте ESX с низким уровнем использования, так как нас обучали на этом.
У вашего представителя VMware должно быть много документации по Fiber и iscsi, включая некоторые общие тесты или, по крайней мере, истории / сравнения реальных реализаций. Наш представитель уверен.
Я знаю, что проблема решена, но предлагаю вам взглянуть на эта статья о FC против iSCSI.
Я считаю, что вы увидите удвоение общих возможностей ввода-вывода, если перейдете на 4 Гбит / с или лучше FC SAN.
У нас были большие фермы VMWare, обслуживаемые FC, было давление с целью снизить стоимость хранения, поэтому мы начали создавать новые расширения с использованием NetApp 10Gbps iSCSI, мы столкнулись с проблемами производительности, поэтому перевели их все на FC, и это было лучшее, что мы могли сделать - мы удваиваем количество виртуальных машин на хост и получаем ту же производительность, что и при использовании iSCSI.
Конечно, наши очень неоднозначные профили нагрузки на виртуальные машины могли усугубить это, но если вы можете позволить себе FC, я настоятельно рекомендую вам это сделать.
Я мог бы вдаваться в подробности (на самом деле, я с радостью сделаю это, если будет предложено), но в конечном итоге iSCSI - это почти продукт, который можно использовать бесплатно, и мы все знаем о бесплатных обедах :)
Хотя об этом не спрашивали, мне просто любопытно, подходит ли RAID 5 для виртуальной среды, рассматривали ли вы RAID 10?
У нас есть все SAN на основе FC со скоростью 2 Гбит / с, мы протестировали HBA 4 Гбит / с и не обнаружили никакой разницы в производительности. Узкие места для нас всегда связаны с нашей скоростью диска, кроме того, у вас может быть SAN на базе FC 8 Гбит / с, и при этом производительность не увеличивается, если ваши диски в вашем массиве являются дисками SATA или даже 10K, это также зависит от типа RAID и размера массива. . Также минус один Майку за использование слова «облако».