У меня есть управляемый кластер AKS, на котором я настроил 3 модуля, которые будут использоваться в качестве фиктивного процессора (они просто получают запрос и удерживают его в течение 15 секунд, прежде чем вернуть ответ). Наряду с этим у меня есть API, который отвечает за чтение сообщения из очереди служебной шины MS и отправку запроса на макетные процессоры.
Проблема, которую я вижу, заключается в том, что эти 3 процессора обрабатывают случайное количество сообщений из тестовой партии (например, 15 сообщений). И нагрузка не распределяется равномерно по всем модулям процессоров.
При первом тестовом запуске я увидел Processor Pod 1 (8 сообщений), Процессорный блок 2 (7), Processor Pod 3 (0).
Во втором тестовом прогоне я увидел Processor Pod 1 (6 сообщений), Процессорный блок 2 (5), Processor Pod 3 (4).
Кто-нибудь знает, ожидают ли от него такого поведения?
Я читал об AKS и kube-proxy и обнаружил, что режим по умолчанию для распределения нагрузки - iptable. Я не уверен, это причина или что-то еще.
Кто-нибудь знает, как я могу контролировать распределение нагрузки сообщений, чтобы они равномерно обрабатывались по всем доступным модулям?
Спасибо!