У нас есть достаточно объемная «недвижимость» vSphere: 80% наших серверов Windows / Linux виртуализированы и работают в шести центрах обработки данных. Одна из моих проблем - среднесрочное и долгосрочное планирование емкости, чтобы обеспечить получение достаточных средств в годовом прогнозе капитальных затрат для обеспечения средств либо для обновления хоста (обычно памяти), либо для увеличения количества хостов (оборудования и лицензий ESX), либо для расширения SAN в худшем случае.
В любом случае, до недавнего времени мне было вполне комфортно принимать статистику производительности vCenter как действительно репрезентативную для происходящего. Я обычно работаю на уровне кластера, когда смотрю на статистику, поскольку хосты в каждом кластере идентичны, обновлены и т. Д.
Однако недавно я заметил кое-что, что меня немного подбодрило. Один из моих кластеров имеет доступную "полосу пропускания" ЦП 200 ГГц, она состоит из следующего:
5 hosts x 2 sockets-per-host x 6 cores-per-socket x 3.33GHz per-core = 199.8GHz
Это нормально, и vCenter правильно сообщает это значение. Однако, когда вы просматриваете загрузку ЦП кластера в vCenter или получаете статистику с помощью PowerCLI Get-Stat cmdlet, загрузка ЦП может иногда превышать 300 ГГц. Это имеет косвенный эффект и приводит к нарушению моих расчетов, поскольку показатель использования достигает 150% (!). Я давно не занимался математикой A-level, но я не понимаю, как можно использовать процессор на 150% ...
Итак, я позвонил в службу поддержки VMware. И, как ни смешно, они сказали, что мне нужно купить vCenter Operations Manager (vCOPS), чтобы делать то, что я пытаюсь делать. Что ж, нет, спасибо, если у меня есть точная статистика, я могу самостоятельно принять решение (извините, разглагольствуйте).
Итак, я настаивал на объяснении, и сотрудник службы поддержки сказал, что данные в vCenter основаны на «общем» расчете, который использует сумму средних значений. Что ж, усреднение выборок данных вполне нормально и вполне приемлемо, но я все еще не могу понять, как можно превысить 100%.
Итак, я сам пытался разобраться с этим, и мне интересно, влияет ли на результаты функция Hyper-Threading или «турбо» Xeon. Однако "турбо" подъем составляет всего лишь с 3,33 ГГц до 3,6 ГГц, то есть 8%.
Какие-нибудь подсказки?
Это где vCenter Operations Manager жестяная банка быть под рукой. Не сбрасывайте со счетов его полезность ... потенциально она может быть лучшей платформой DSS, чем вы :) Однако, как и в большинстве сред VMware, вы надолго исчерпаете свои ресурсы оперативной памяти из-за ограничений ЦП. В своих усилиях по планированию с другими большими кластерами я выбирал размер в соответствии с потребностями в ОЗУ и хранилище, поскольку ЦП никогда не был ограничивающим фактором. Какие версии ESXi, vSphere и лицензионного уровня здесь используются?
Для ваших хостов они звучат как системы на базе Westmere X5680 с тактовой частотой 3,33 ГГц. У вас есть возможность запускать их с включенной или отключенной Hyperthreading. Похоже, здесь что-то еще играет. Как выглядят другие жизненно важные параметры сервера, когда загрузка ЦП достигает 150%?
Доступен бесплатный уровень vCenter Operations. Также есть полнофункциональный (60- или 90-дневный) оценка доступный. Это будет невероятно полезно для выявления реальных узких мест в вашей инфраструктуре ... даже если используется для правильного размера виртуальных машин и проверки работоспособности кластера.
Представление, которое может иметь значение для вас, - это метрика «Оставшееся время», которая вычисляет количество времени, оставшееся до исчерпания определенного ресурса.
Говоря техническим термином, я взялся за дело. Оказывается, данные vCenter действительно включают Hyper-threading, когда речь идет об общей частоте МГц. Однако моя электронная таблица (созданная с помощью PowerCLI) не собирала «количество потоков ЦП» и поэтому смотрела только на сокеты («пакеты» на языке VMware) и ядра. Спасибо за вклад выше.