Меня интересует моделирование различных конфигураций сервера / сети для веб-приложения. Я хотел бы заранее знать, какие части системы будут узкими местами, и связаны ли узкие места с ЦП / памятью / сетью и т. Д.
Я думал о том, чтобы взять один тестовый сервер и настроить на нем каждый «настоящий» сервер как виртуальную машину, настроенную так, как если бы они были в дикой природе. Я собираюсь попробовать это, но хотел спросить у сообщества serverfault, пробовал ли кто-нибудь этот подход раньше. Это жизнеспособно?
Я, конечно, не жду тестов или чего-то подобного, но думаю, что это может быть полезно для моделирования относительной производительности, выявления узких мест и проверки работоспособности архитектуры.
Все, для чего это будет хорошо, - это проверка работоспособности вашей общей архитектуры и обеспечение того, чтобы все задействованные биты могли попасть туда, куда им нужно.
Помимо этого, оборудование и сеть будут достаточно сильно отличаться от производственной среды, поэтому любые проблемы с производительностью или узкие места, которые вы обнаружите, могут присутствовать или не присутствовать в производственной среде.
Единственный способ, которым это может быть жизнеспособным и дать достойные результаты, - это если каждая виртуальная машина имеет идентичную структуру и ресурсы с производственными серверами. Достижимо это или нет, только вы можете сказать, поскольку мы ничего не знаем о вашей инфраструктуре.
Я никогда не делал этого в таком масштабе, о котором вы говорите, но использовал виртуальные машины для репликации производственных веб-серверов и тем самым экспериментировал с конфигурациями в автономном режиме, прежде чем вносить изменения в действующую систему.