У меня есть 512 МБ KVM Debian OS VPS с несколькими игровыми серверами и несколькими веб-сайтами с поддержкой sql.
В настоящее время у меня есть 1 ядро виртуального ЦП, и его использование составляет около 15%. Если бы мне пришлось получить дополнительное ядро vCPU, будет ли VPS знать, что нужно использовать оба ядра автоматически, или я должен указать, какие программы что запускают, и / или настроить мои программы для использования многопоточности? Будет ли иметь значение дополнительное ядро процессора, если оно используется всего на 10%?
Какая бы проблема с производительностью вы ни испытывали (или планируете столкнуться - потому что поверьте мне, это произойдет), это связано с оперативной памятью. Даже для одного сайта и базы данных SQL 512 МБ ОЗУ - это слишком мало, не говоря уже о нескольких сайтах и игровых серверах.
Разделите каждую службу на свой собственный сервер или виртуальную машину (особенно игровые серверы - я бы не стал доверять им с точки зрения безопасности, поэтому лучше разместить их на отдельном хосте, который вы можете быстро уничтожить, не подвергая риску другие данные, если они будут скомпрометированы) , а затем посмотрите, сохраняется ли проблема с производительностью.
Чтобы ответить на ваш вопрос, при добавлении второго ядра процессы будут автоматически распределяться между ними, каждый процесс по-прежнему будет использовать только одно, но это определенно распределит процессы PHP-FPM и / или игрового сервера по двум ядрам. Но в данном случае проблема не в процессоре.
Если вы используете PHP на Apache, я так не думаю. Если вы используете Tomcat, как я, то да, потоки Java будут выполняться на каждом процессоре.
Так что это очень сильно зависит от того, что вы делаете.
Конечно, если у вас есть веб-сервер и база данных, каждый из них должен иметь возможность работать на другом процессоре, что также должно повысить производительность.
Я использую сервер на 512 Мбайт в цифровом океане, и это кажется нормальным для серверов. Вы забываете, сколько это 512 МБ, особенно если у вас нет рабочего стола.