Назад | Перейти на главную страницу

Запросы большого объема с низкими накладными расходами

У меня есть приложение, которое будет обрабатывать данные, полученные через большой объем, низкие накладные расходы отправлено с разных аппаратных устройств, подключенных к Интернету. Эти данные будут поступать постоянно и в будущем будут только увеличиваться по мере того, как в систему будет добавляться все больше и больше устройств. Как только данные получены, после небольшой обработки они будут вставлены в базу данных (MySQL).

У меня вопрос, какое серверное программное обеспечение я должен использовать для этого? Является node.js лучший кандидат для обработки максимального количества таких запросов в рамках данного аппаратного ограничения или nginx лучше для таких приложений? Также есть ли лучшие практики для обработки таких запросов? Например, я читал, что если я использую node.js, мне, возможно, придется взглянуть на ulimit ОС, чтобы обеспечить создание достаточного количества файлов в случае большого количества одновременных запросов ...

Спасибо.

По крайней мере, newrelic говорит, что java лучше всего подходит для этого:

Основным веб-приложением New Relic всегда было приложение Rails. Уровень сбора данных изначально был написан на Ruby, но в конечном итоге был перенесен на Java. Основным драйвером этого изменения была производительность. Этот уровень в настоящее время поддерживает более 180 тыс. Запросов в минуту и ​​отвечает примерно за 2,5 миллисекунды с большим запасом для работы.

из http://highscalability.com/blog/2011/7/18/new-relic-architecture-collecting-20-billion-metrics-a-day.html