Назад | Перейти на главную страницу

Странное использование ЦП в Windows Server 2003 по сравнению с CentOS5.4

У меня есть два виртуальных компьютера под управлением Windows Server 2003 и CentOS 5.4 на хост-машине. Я использую Java-сервер на них обоих. Я скопировал файлы java-сервера с хост-машины на обе виртуализации. Когда оба сервера простаивают (нет подключенных пользователей), сервер Windows использует 0-4% своего выделенного ядра, в то время как сервер CentOS использует 5-15% своего выделенного ядра. Обе копии java-сервера, похоже, в это время находятся под одинаковой нагрузкой. Оба сервера используют Sun JDK 1.7.

Я начал тестировать это после того, как обнаружил, что при запуске сервера на моем (выделенном) сервере Windows Server 2003 Java-сервер работает намного лучше, чем один из моих CentOS VPS. Я начал тестировать это, чтобы исключить, что это проблема виртуализации. (У моего выделенного процессора, похоже, такое же использование ЦП, что и у виртуального хоста Windows)

Есть ли причина, по которой сервер CentOS будет использовать больше ресурсов ЦП, чем окна с примерно таким же объемом работы?

Могут быть разные факторы относительно того, что может быть установлено на одном типе серверной ОС по сравнению с другим, а также от того, как они могут выполнять аналогичные задачи. Слишком много переменных, которые могут иметь значение, поскольку сравнение - это не сравнение один к одному или одно яблоко с яблоками между двумя совершенно разными операционными системами.