Мне нужно читать из Rabbitmq и выполнять задачу параллельно, используя Celery в одной системе.
[2014-12-30 15:54:22,374: INFO/Worker-1] ...
[2014-12-30 15:54:23,401: INFO/Worker-1] ...
[2014-12-30 15:54:30,878: INFO/Worker-1] ...
[2014-12-30 15:54:32,209: INFO/Worker-1] ...
[2014-12-30 15:54:33,255: INFO/Worker-1] ...
[2014-12-30 15:54:48,445: INFO/Worker-1] ...
[2014-12-30 15:54:49,811: INFO/Worker-1] ...
[2014-12-30 15:54:50,903: INFO/Worker-1] ...
[2014-12-30 15:55:39,674: INFO/Worker-1] ...
[2014-12-30 15:55:41,024: INFO/Worker-1] ...
[2014-12-30 15:55:42,147: INFO/Worker-1] ...
Кажется, все время работает только 1 рабочий .. т.е. один за другим в последовательном порядке. Как я могу настроить Celery для параллельного запуска нескольких рабочих процессов?
Теперь я обновил свой ответ после комментария от MartinP относительно дочерних процессов, порождающих рабочие, а не потоков:
Сельдерей worker
и worker processes
разные вещи (Прочтите это для справки).
Когда рабочий запускается, он порождает определенное количество дочерних процессов.
По умолчанию количество этих процессов равно количеству ядер на этой машине.
В Linux вы можете проверить количество ядер через:
$ nproc --all
В противном случае вы можете указать это самостоятельно, например:
$ celery -A proj worker --loglevel=INFO --concurrency=2
В приведенном выше примере есть один воркер, который сможет порождать 2 дочерних процесса. Обычно рекомендуется запускать одного рабочего на каждую машину, и значение параллелизма будет определять, сколько процессов будет выполняться параллельно, но если для запуска требуется несколько рабочих, вы можете запустить их, как показано ниже:
$ celery -A proj worker -l info --concurrency=4 -n wkr1@hostname
$ celery -A proj worker -l info --concurrency=2 -n wkr2@hostname
$ celery -A proj worker -l info --concurrency=2 -n wkr3@hostname
Обратитесь к сельдерею документы для получения дополнительной информации
Я нашел это
http://docs.celeryproject.org/en/latest/reference/celery.html?highlight=parallel
Вы можете искать Примитивы холста там вы можете увидеть, как создавать группы для параллельного выполнения.
class celery.group (task1 [, task2 [, task3 [,… taskN]]]) Создает группу задач, которые будут выполняться параллельно.
В противном случае хороший способ - пойти на канал IRC и задать специальные вопросы. Обычно есть люди, которые очень хорошо это знают и могут вам помочь.
Похоже, ваш рабочий просто запускает один процесс / поток. Вероятно, вам просто нужно добавить --concurrency
или -c
аргумент при запуске рабочего для создания нескольких (параллельных) рабочих экземпляров.
celery -A proj worker -c 4