У меня есть приложение, которое будет обрабатывать данные, полученные через большой объем, низкие накладные расходы отправлено с разных аппаратных устройств, подключенных к Интернету. Эти данные будут поступать постоянно и в будущем будут только увеличиваться по мере того, как в систему будет добавляться все больше и больше устройств. Как только данные получены, после небольшой обработки они будут вставлены в базу данных (MySQL).
У меня вопрос, какое серверное программное обеспечение я должен использовать для этого? Является node.js лучший кандидат для обработки максимального количества таких запросов в рамках данного аппаратного ограничения или nginx лучше для таких приложений? Также есть ли лучшие практики для обработки таких запросов? Например, я читал, что если я использую node.js, мне, возможно, придется взглянуть на ulimit ОС, чтобы обеспечить создание достаточного количества файлов в случае большого количества одновременных запросов ...
Спасибо.
По крайней мере, newrelic говорит, что java лучше всего подходит для этого:
Основным веб-приложением New Relic всегда было приложение Rails. Уровень сбора данных изначально был написан на Ruby, но в конечном итоге был перенесен на Java. Основным драйвером этого изменения была производительность. Этот уровень в настоящее время поддерживает более 180 тыс. Запросов в минуту и отвечает примерно за 2,5 миллисекунды с большим запасом для работы.