Назад | Перейти на главную страницу

Простой вариант для построения графика использования ЦП на удаленном сервере Linux

Мои требования очень простые. Мне нужно построить график использования ЦП на удаленном сервере Linux. Я не ищу ничего сложного, мне просто нужно иметь возможность построить график использования ЦП на сервере Linux за неделю.

Я начал свой путь кактусов - он непростой, непростой и определенно кажется излишним.

Есть ли более простой, быстрый и понятный вариант?

Мунин очень приятный и простой в установке и настройке.

Для одного случая я бы получил данные, используя сар (пакет sysstat), а затем построить график с ним инструмент rrd. Вот сценарий это помогает в создании графиков из вывода sar.

Вы можете попробовать sargrapher в http://www.fsprings.com/neat/sargrapher.html, вы загружаете sar -p -A вывод на нем предоставляет страницу с графиками. Если вы хотите, вы можете выбрать нужные параметры sar, он будет только отображать их.

Я предпочитаю ORCA - www.orcaware.com для построения графиков статистики сервера.
В наши дни настройка не слишком сложна (используйте снимок r535), и он может отображаться в почасовом, дневном, недельном, ежемесячном, квартальном и годовом диапазонах.

Он основан на сборщике данных (прокалаторе), который опрашивает с 5-минутными интервалами. Графический движок - это старая версия RRDTool, но она работает быстро для этого приложения.

Для удаленного сервера вы можете создать график собственной статистики или вы можете извлекать файлы прокаллятора через ssh / rsync / scp через регулярные промежутки времени для построения графика на локальном сервере. В любом случае это работает хорошо.

Пара вопросов: - вы хотите создавать графики в реальном времени? - как часто вы хотите брать образцы?

В предыдущих комментариях упоминались 5-минутные образцы, и я должен сказать, что если вы действительно хотите знать, что делает ваш процессор с какой-либо уверенностью, вы действительно должны быть в 10-секундном диапазоне. Усреднение за 5 минут просто заставит вас пропустить всплески, которые могут длиться несколько минут! По общему признанию, 10-секундные образцы могут пропустить 5-секундные всплески, но вы должны выяснить, что вы пытаетесь увидеть в данных.

Лично я использую collectl, наверное потому, что я его написал! ;-)

Но он работает очень эффективно при низких частотах дискретизации (даже менее секунды) и даже может сообщать о своих результатах в формате, подходящем для построения графиков. Фактически, если вы устанавливаете collectl-utils и записываете в общий каталог, вы можете использовать colplot для просмотра данных в реальном времени.

Последний комментарий по поводу RRDTool. Это отличный пакет, который рисует очень хорошие графики, но вам нужно знать, что если вы регистрируете много образцов за один день, полученные графики не будут точными. Это связано с тем, что RRDTool нормализует несколько выборок в отдельные точки данных, чтобы упростить графики, чего никогда не делает colplot. Он использует gnuplot, чтобы убедиться, что каждая точка захваченных данных точно нанесена на график.

-отметка

Когда я работал с некоторыми Linux-системами, я использовал Splunk и нашел это очень полезным.

Мне понравился Splunk, потому что он позволял мне не только отслеживать производительность, но и настраивать оповещения не только для Linux, но и для Windows.

Если у вас действительно только один, игнорируйте это, но если у вас их куча или вы собираетесь расти, то стоит взглянуть на Ganglia.

5-секундная выборка и множество показателей помимо ЦП, хорошо управляемых на нескольких уровнях, для каждого сервера / кластера / фермы и т. Д.