Назад | Перейти на главную страницу

Инфраструктура AWS сайта с несколькими независимыми конечными точками

У меня есть блог WordPress, в котором размещается нишевый контент на domain.com

На другой конечной точке domain.com/api/ У меня есть совершенно другой API Node.JS, который не учитывает WordPress, но я хочу обслуживать его из того же домена.

Следует отметить, что мы прежде всего повышаем производительность и скорость.

Моя мысль была такая:

Настройка 2 EC2 Instances, один для WordPress и один для API (возможно, сделать API Lambda пример ?).

Создать Application Load Balancer который будет знать, как маршрутизировать запросы с помощью правила в зависимости от URL-адреса.

Это правильный путь? Должен ли я просто использовать nginx в качестве обратного прокси и обслуживать API Node.JS на локальном порту?

Я также хочу использовать Elastic Beanstalk чтобы избавиться от головной боли по настройке балансировщика нагрузки и группы Auto Scaling.

P.S Если у кого-то есть какие-либо советы или хорошие привычки по их созданию (возможно, с помощью S3 Bucket, через CloudFront и т. Д.), Это будет более чем приветствоваться.

Спасибо !

Как насчет «wp.domain.com» и «api.domain.com»? Есть ли причина не использовать поддомены? Тогда вы сможете легко решить свою проблему с помощью DNS.