Назад | Перейти на главную страницу

Триггеры масштабирования AWS Beanstalk с автоматическим масштабированием с подсчетом UnhealthyHost и проверкой работоспособности

У меня есть триггеры масштабирования, настроенные на поиск нездорового количества хостов, но, похоже, они не работают.

Теперь, чтобы проверить это - я подключаюсь к одному из своих экземпляров по SSH и останавливаю службу HTTPD. Затем, когда я перейду к обзору работоспособности, я сразу же увижу, что сервер, на который я подключился по SSH, теперь имеет статус серьезного.

Я бы предположил, что в этот момент, по прошествии 1 минуты (согласно моим правилам), будет создан новый сервер, но этого не происходит.

Если я правильно понимаю свои правила - теперь имеется 1 (выше верхнего порога) неработоспособного сервера, поэтому мы увеличиваем его на 1. А затем, когда количество неработоспособных серверов равно 0 (ниже нижнего порога), удалите 1 сервер.

Но да, я ждал около 5 минут, а новых серверов EC2 не было.

Еще у меня есть настройки для проверки работоспособности:

Это как-то противоречит моим правилам автомасштабирования? Я думал, что файл проверки работоспособности должен возвращать ответ 200, чтобы считаться работоспособным, и если HTTPD остановлен - они не вернут этот ответ.

Так что же дает?

Похоже, вы оставили набор единиц, которые, я не думаю, существуют для этой метрики. Вы можете перейти к консоли облачных часов и проверить будильник и метрику, чтобы узнать, совпадают ли они.

Но также, масштабирование UnHealthyHostCount - плохая идея. Он просто собирается запустить новый экземпляр, но ничего не предпринять с нездоровым. Вместо этого включение проверки работоспособности ELB обычно является лучшей идеей.

https://docs.aws.amazon.com/elasticbeanstalk/latest/dg/environmentconfig-autoscaling-healthchecktype.html