Мы купили сервер Dell R720 и установили на него CentOS 6.3. У нас есть еще один старый сервер Dell, на котором также установлена CentOS 6.3. Когда мы провели простой тест производительности диска, старый сервер оказался в 10 раз быстрее для этого теста, чем новый. Процесс тестирования включает запись чего-либо на диск и его циклическую очистку. Мы хотим выяснить, почему это происходит медленно. В новом сервере два диска, и мы настроили их как RAID-0. df -h дает следующее:
[Older server]
[xxx@xxx ~]$ df -h
Filesystem Size Used Avail Use% Mounted on
/dev/sda1 97G 28G 64G 31% /
tmpfs 1.9G 11M 1.9G 1% /dev/shm
/dev/sda2 193G 103G 80G 57% /home
[New server]
[root@snap ~]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/sda2 116G 664M 109G 1% /
tmpfs 12G 0 12G 0% /dev/shm
/dev/sda1 7.7G 195M 7.2G 3% /boot
/dev/sdb2 77G 192M 73G 1% /home
/dev/sdb1 154G 232M 146G 1% /tmp
/dev/sda3 77G 2.4G 71G 4% /usr
Как понять, что делает новый сервер в 10 раз медленнее? Как это исправить? Спасибо.
РЕДАКТИРОВАТЬ: добавление вывода lshw.
[Older Server]
[duminda@snapoffice src]$ sudo ./lshw -class storage
[sudo] password for duminda:
*-storage
description: Serial Attached SCSI controller
product: SAS2008 PCI-Express Fusion-MPT SAS-2 [Falcon]
vendor: LSI Logic / Symbios Logic
physical id: 0
bus info: pci@0000:05:00.0
logical name: scsi0
version: 03
width: 64 bits
clock: 33MHz
capabilities: storage pm pciexpress vpd msi msix bus_master cap_list rom
configuration: driver=mpt2sas latency=0
resources: irq:16 ioport:fc00(size=256) memory:df2b0000-df2bffff memory:df2c0000-df2fffff memory:df100000-df1fffff(prefetchable)
*-ide:0
description: IDE interface
product: 5 Series/3400 Series Chipset 4 port SATA IDE Controller
vendor: Intel Corporation
physical id: 1f.2
bus info: pci@0000:00:1f.2
version: 05
width: 32 bits
clock: 66MHz
capabilities: ide pm bus_master cap_list
configuration: driver=ata_piix latency=0
resources: irq:20 ioport:eca0(size=8) ioport:ec90(size=4) ioport:eca8(size=8) ioport:ec94(size=4) ioport:ecc0(size=16) ioport:ecd0(size=16)
*-ide:1
description: IDE interface
product: 5 Series/3400 Series Chipset 2 port SATA IDE Controller
vendor: Intel Corporation
physical id: 1f.5
bus info: pci@0000:00:1f.5
logical name: scsi3
version: 05
width: 32 bits
clock: 66MHz
capabilities: ide pm bus_master cap_list emulated
configuration: driver=ata_piix latency=0
resources: irq:21 ioport:ecb0(size=8) ioport:ec98(size=4) ioport:ecb8(size=8) ioport:ec9c(size=4) ioport:ece0(size=16) ioport:ecf0(size=16)
[Newer Server]
[root@Snap src]# ./lshw -class storage
*-storage
description: RAID bus controller
product: MegaRAID SAS 2208 [Thunderbolt]
vendor: LSI Logic / Symbios Logic
physical id: 0
bus info: pci@0000:03:00.0
logical name: scsi0
version: 05
width: 64 bits
clock: 33MHz
capabilities: storage pm pciexpress vpd msi msix bus_master cap_list rom
configuration: driver=megaraid_sas latency=0
resources: irq:42 ioport:fc00(size=256) memory:ddffc000-ddffffff memory:ddf80000-ddfbffff memory:dd000000-dd01ffff(prefetchable)
*-storage
description: SATA controller
product: C600/X79 series chipset 6-Port SATA AHCI Controller
vendor: Intel Corporation
physical id: 1f.2
bus info: pci@0000:00:1f.2
logical name: scsi5
version: 05
width: 32 bits
clock: 66MHz
capabilities: storage msi pm ahci_1.0 bus_master cap_list emulated
configuration: driver=ahci latency=0
resources: irq:124 ioport:ece8(size=8) ioport:ecf8(size=4) ioport:ecf0(size=8) ioport:ecfc(size=4) ioport:ecc0(size=32) memory:df8ff000-df8ff7ff
РЕДАКТИРОВАТЬ: Дополнительная информация о дисках:
[Older Server]
[duminda@snapoffice ~]$ find /sys/ -type f -name "model"
/sys/devices/pci0000:00/0000:00:05.0/0000:05:00.0/host0/target0:1:0/0:1:0:0/model
/sys/devices/pci0000:00/0000:00:05.0/0000:05:00.0/host0/port-0:0/end_device-0:0/target0:0:0/0:0:0:0/model
/sys/devices/pci0000:00/0000:00:05.0/0000:05:00.0/host0/port-0:1/end_device-0:1/target0:0:1/0:0:1:0/model
/sys/devices/pci0000:00/0000:00:1f.5/host3/target3:0:0/3:0:0:0/model
[duminda@snapoffice ~]$ cat /sys/devices/pci0000:00/0000:00:05.0/0000:05:00.0/host0/target0:1:0/0:1:0:0/model
Virtual Disk
[duminda@snapoffice ~]$ cat /sys/devices/pci0000:00/0000:00:05.0/0000:05:00.0/host0/port-0:0/end_device-0:0/target0:0:0/0:0:0:0/model
ST500NM0001
[duminda@snapoffice ~]$ cat /sys/devices/pci0000:00/0000:00:05.0/0000:05:00.0/host0/port-0:1/end_device-0:1/target0:0:1/0:0:1:0/model
ST500NM0001
[duminda@snapoffice ~]$ cat /sys/devices/pci0000:00/0000:00:1f.5/host3/target3:0:0/3:0:0:0/model
DVD+-RW TS-L633J
поиск в Google ST500NM0001
Storage Capacity: 500 GB
Maximum External Data Transfer Rate: 600 MBps (4.7 Gbps)
Rotational Speed: 7200 rpm
Buffer: 64 MB
Drive Interface: SAS
Drive Interface Standard: 6Gb/s SAS
Drive Type: Internal
Drive Width: 3.5"
Height: 1"
Width: 4"
Depth: 5.8"
Weight (Approximate): 1.34 lb
Limited Warranty: 3 Year
Однако более новый сервер дает следующее:
[Newer Server]
[root@Snap ~]# find /sys/ -type f -name "model"
/sys/devices/pci0000:00/0000:00:02.2/0000:03:00.0/host0/target0:2:0/0:2:0:0/model
/sys/devices/pci0000:00/0000:00:02.2/0000:03:00.0/host0/target0:2:1/0:2:1:0/model
/sys/devices/pci0000:00/0000:00:1f.2/host5/target5:0:0/5:0:0:0/model
[root@Snap ~]# cat /sys/devices/pci0000:00/0000:00:02.2/0000:03:00.0/host0/target0:2:0/0:2:0:0/model
PERC H710
[root@Snap ~]# cat /sys/devices/pci0000:00/0000:00:02.2/0000:03:00.0/host0/target0:2:1/0:2:1:0/model
PERC H710
[root@Snap ~]# cat /sys/devices/pci0000:00/0000:00:1f.2/host5/target5:0:0/5:0:0:0/model
DVD+-RW DS-8A9SH
РЕДАКТИРОВАТЬ: новый сервер имеет 2 таких диска:
300GB 15K RPM, 6Gbps SAS 3.5" Hot Plug Hard Drive
РЕДАКТИРОВАТЬ: изменения расписания ввода-вывода на новом сервере:
[snap@Snap ~]$ cat /sys/block/sda/queue/scheduler
[noop] anticipatory deadline cfq
[snap@Snap ~]$ cat /sys/block/sdb/queue/scheduler
[noop] anticipatory deadline cfq
[snap@Snap ~]$ time ./test_depth
real 0m0.990s
user 0m0.239s
sys 0m0.352s
[snap@Snap ~]$ cat /sys/block/sda/queue/scheduler
noop [anticipatory] deadline cfq
[snap@Snap ~]$ cat /sys/block/sdb/queue/scheduler
noop [anticipatory] deadline cfq
[snap@Snap ~]$ time ./test_depth
real 0m1.031s
user 0m0.172s
sys 0m0.444s
[snap@Snap ~]$ cat /sys/block/sda/queue/scheduler
noop anticipatory [deadline] cfq
[snap@Snap ~]$ cat /sys/block/sdb/queue/scheduler
noop anticipatory [deadline] cfq
[snap@Snap ~]$ time ./test_depth
real 0m0.998s
user 0m0.150s
sys 0m0.448s
[snap@Snap ~]$ cat /sys/block/sda/queue/scheduler
noop anticipatory deadline [cfq]
[snap@Snap ~]$ cat /sys/block/sdb/queue/scheduler
noop anticipatory deadline [cfq]
[snap@Snap ~]$ time ./test_depth
real 0m1.078s
user 0m0.228s
sys 0m0.350s
[snap@Snap ~]$
Одного прогона по каждому расписанию может быть недостаточно. Но, похоже, особой разницы нет.
РЕДАКТИРОВАТЬ:
Снова переустановил CentOS без логических томов. Просто использовал разделы ext4. По-прежнему нет улучшения производительности.
РЕДАКТИРОВАТЬ: Тестовая программа - очень просто.
(run with these env vars)
export GLOG_logbufsecs=0
export GLOG_log_dir=/tmp
====================
#include <glog/logging.h>
#include <iostream>
int main(int argc, char **argv)
{
google::InitGoogleLogging(argv[0]);
for (int i = 0; i <100000; ++i)
{
DLOG(INFO) << "TEST";
}
return 0;
}
ИНФОРМАЦИЯ О ЦП
==========================================
[Old server CPU]
[duminda@snapoffice mdata]$ cat /proc/cpuinfo
processor : 0
vendor_id : GenuineIntel
cpu family : 6
model : 30
model name : Intel(R) Xeon(R) CPU X3430 @ 2.40GHz
stepping : 5
cpu MHz : 2393.786
cache size : 8192 KB
physical id : 0
siblings : 4
core id : 0
cpu cores : 4
apicid : 0
initial apicid : 0
fpu : yes
fpu_exception : yes
cpuid level : 11
wp : yes
flags : fpu vme de pse tsc msr pae mce cx8 apic mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx rdtscp lm constant_tsc arch_perfmon pebs bts rep_good xtopology nonstop_tsc aperfmperf pni dtes64 monitor ds_cpl vmx smx est tm2 ssse3 cx16 xtpr pdcm sse4_1 sse4_2 popcnt lahf_lm ida tpr_shadow vnmi flexpriority ept vpid
bogomips : 4787.57
clflush size : 64
cache_alignment : 64
address sizes : 36 bits physical, 48 bits virtual
power management:
...... 3 more like this
================================================
[New server CPUs]
processor : 0
vendor_id : GenuineIntel
cpu family : 6
model : 62
model name : Intel(R) Xeon(R) CPU E5-2640 v2 @ 2.00GHz
stepping : 4
cpu MHz : 1999.988
cache size : 20480 KB
physical id : 0
siblings : 16
core id : 0
cpu cores : 8
apicid : 0
initial apicid : 0
fpu : yes
fpu_exception : yes
cpuid level : 13
wp : yes
flags : fpu vme de pse tsc msr pae mce cx8 apic mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx pdpe1gb rdtscp lm constant_tsc arch_perfmon pebs bts rep_good xtopology nonstop_tsc aperfmperf pni pclmulqdq dtes64 monitor ds_cpl vmx smx est tm2 ssse3 cx16 xtpr pdcm dca sse4_1 sse4_2 x2apic popcnt aes xsave avx f16c rdrand lahf_lm ida arat xsaveopt pln pts dts tpr_shadow vnmi flexpriority ept vpid fsgsbase smep erms
bogomips : 3999.97
clflush size : 64
cache_alignment : 64
address sizes : 46 bits physical, 48 bits virtual
power management:
........ 31 more like this
========================
bonnie ++ вывод
[Old server]
[root@snapoffice bonnie++-1.03e]# time ./bonnie++ -n 0 -d /tmp/duminda -r 512 -b -u duminda
Using uid:511, gid:511.
Writing with putc()...done
Writing intelligently...done
Rewriting...done
Reading with getc()...done
Reading intelligently...done
start 'em...done...done...done...
Version 1.03e ------Sequential Output------ --Sequential Input- --Random-
-Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
snapoffice 1G 54925 97 105195 24 123526 8 65593 99 +++++ +++ 384.3 0
snapoffice,1G,54925,97,105195,24,123526,8,65593,99,+++++,+++,384.3,0,,,,,,,,,,,,,
real 1m20.473s
user 0m33.528s
sys 0m4.819s
[New server]
[root@snap ~]# time bonnie++ -n 0 -d /tmp -r 512 -u snap -b
Using uid:500, gid:500.
Writing with putc()...done
Writing intelligently...done
Rewriting...done
Reading with getc()...done
Reading intelligently...done
start 'em...done...done...done...
Version 1.03e ------Sequential Output------ --Sequential Input- --Random-
-Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
snap.R720 1G 86507 99 217958 31 187624 20 88467 99 +++++ +++ +++++ +++
snap.R720,1G,86507,99,217958,31,187624,20,88467,99,+++++,+++,+++++,+++,,,,,,,,,,,,,
real 0m40.172s
user 0m22.907s
sys 0m4.516s
============================================
объем памяти
[Old server]
[duminda@snapoffice mdata]$ cat /proc/meminfo
MemTotal: 3913604 kB
MemFree: 1272208 kB
Buffers: 196168 kB
Cached: 1459716 kB
SwapCached: 73752 kB
Active: 867288 kB
Inactive: 1396600 kB
Active(anon): 325104 kB
Inactive(anon): 293588 kB
Active(file): 542184 kB
Inactive(file): 1103012 kB
Unevictable: 0 kB
Mlocked: 0 kB
SwapTotal: 8191992 kB
SwapFree: 7683524 kB
Dirty: 80 kB
Writeback: 0 kB
AnonPages: 549976 kB
Mapped: 48912 kB
Shmem: 10684 kB
Slab: 247592 kB
SReclaimable: 86080 kB
SUnreclaim: 161512 kB
KernelStack: 7024 kB
PageTables: 79016 kB
NFS_Unstable: 0 kB
Bounce: 0 kB
WritebackTmp: 0 kB
CommitLimit: 10148792 kB
Committed_AS: 7679752 kB
VmallocTotal: 34359738367 kB
VmallocUsed: 285540 kB
VmallocChunk: 34359445552 kB
HardwareCorrupted: 0 kB
AnonHugePages: 204800 kB
HugePages_Total: 0
HugePages_Free: 0
HugePages_Rsvd: 0
HugePages_Surp: 0
Hugepagesize: 2048 kB
DirectMap4k: 6756 kB
DirectMap2M: 4177920 kB
[New server]
[root@snap bonnie++-1.03e]# cat /proc/meminfo
MemTotal: 24554684 kB
MemFree: 23312840 kB
Buffers: 217960 kB
Cached: 523140 kB
SwapCached: 0 kB
Active: 346236 kB
Inactive: 414888 kB
Active(anon): 20208 kB
Inactive(anon): 28 kB
Active(file): 326028 kB
Inactive(file): 414860 kB
Unevictable: 0 kB
Mlocked: 0 kB
SwapTotal: 20479992 kB
SwapFree: 20479992 kB
Dirty: 8 kB
Writeback: 0 kB
AnonPages: 20032 kB
Mapped: 14532 kB
Shmem: 220 kB
Slab: 163140 kB
SReclaimable: 86032 kB
SUnreclaim: 77108 kB
KernelStack: 6320 kB
PageTables: 3544 kB
NFS_Unstable: 0 kB
Bounce: 0 kB
WritebackTmp: 0 kB
CommitLimit: 32757332 kB
Committed_AS: 120740 kB
VmallocTotal: 34359738367 kB
VmallocUsed: 338928 kB
VmallocChunk: 34346663592 kB
HardwareCorrupted: 0 kB
AnonHugePages: 0 kB
HugePages_Total: 0
HugePages_Free: 0
HugePages_Rsvd: 0
HugePages_Surp: 0
Hugepagesize: 2048 kB
DirectMap4k: 5056 kB
DirectMap2M: 2045952 kB
DirectMap1G: 23068672 kB
РЕДАКТИРОВАТЬ: Добавление награды
Я хочу знать, почему моя тестовая программа работает медленно на новом сервере и как это исправить (без исключения использования glog - потому что наши программы широко используют это). Может быть, ответ Мэтью ведет в правильном направлении?
Дайте мне знать, если вам понадобится дополнительная информация ...
Не могли бы вы подробнее рассказать о своем тесте? Отражает ли ваш тест реальные сценарии использования приложений? Если это не так, возможно, это не лучший способ измерить производительность дисков. Однако следует учитывать и другие вещи ...
Что касается файловой системы и настройки, EL6.2 + имеет настроенный ADM framework это помогает установить некоторые базовые параметры производительности ввода-вывода для вашего оборудования. Это включает в себя установку планировщика ввода-вывода крайнего срока и отключение барьеров записи, где это имеет смысл. Для вашей новой системы вы захотите запустить yum install tuned tuned-utils
и беги tuned-adm profile enterprise-storage
.
Для вашей схемы разделов старый сервер имеет фиксированные размеры разделов, в то время как новая система имеет LVM. LVM - это еще один уровень абстракции и может иметь влияние в этом случае.
Убедитесь, что ваш кэш RAID настроен правильно. Обычно вы хотите, чтобы кеширование было предвзято для записи.
Узнайте, какие диски находятся на новом сервере ... но это может не иметь значения, поскольку диски вашего старого сервера - самые медленные из доступных корпоративных SAS-дисков. Таким образом, ваша новая система, вероятно, имеет диски, способные по производительности выше или равной производительности дисков вашего старого сервера.
Процесс тестирования включает запись чего-либо на диск и его циклическую очистку.
Ну, нет, компиляция и запуск указывает на то, что он не сбрасывает эти данные вообще, поэтому что-то не так.
Я получаю следующее от strace, используя указанные вами параметры и переменные среды, которые вы использовали.
open("/tmp/glog.home.localdomain.matthew.log.INFO.20140213-224037.24470", O_WRONLY|O_CREAT|O_EXCL, 0664) = 3
fcntl(3, F_SETFD, FD_CLOEXEC) = 0
fcntl(3, F_GETFL) = 0x8001 (flags O_WRONLY|O_LARGEFILE)
fcntl(3, F_SETFL, O_WRONLY|O_APPEND|O_LARGEFILE) = 0
...
Здесь нет открытых флагов, указывающих на то, что он собирается сбросить его на диск ...
Как насчет записи,
write(3, "I0213 22:40:37.370820 24470 glog"..., 46) = 46
fadvise64(3, 0, 4096, POSIX_FADV_DONTNEED) = 0
gettid() = 24470
write(3, "I0213 22:40:37.370925 24470 glog"..., 46) = 46
fadvise64(3, 0, 4096, POSIX_FADV_DONTNEED) = 0
gettid() = 24470
write(3, "I0213 22:40:37.370987 24470 glog"..., 46) = 46
fadvise64(3, 0, 4096, POSIX_FADV_DONTNEED) = 0
gettid() = 24470
...
Никакой промывки там нет ..
Это мощь Вероятно, что в новой системе она действительно записывает грязные страницы на диск после получения POSIX_FADV_DONTNEED, тогда как в старой системе этого не происходит. Это необходимо исключить из теста и сделать тест более справедливым, чтобы избежать любых возможных проблем, связанных с тем, как две системы могут обрабатывать диск.
Обратите внимание, что использование fadvise
это глупо, и каждый раз просить pid вместо сохранения тоже глупо, но я отвлекся ..
Честно говоря, я ожидаю результатов, аналогичных тем, которые вы видели раньше; но это тест, который на самом деле воля сбросить на диск, в отличие от того, что делает ваше приложение.
#include <stdlib.h>
#include <stdio.h>
#include <sys/types.h>
#include <fcntl.h>
#include <string.h>
#include <sysexits.h>
#include <err.h>
#include <limits.h>
/* Deliberate choice here to force writes 4 times to the same sector */
#define BUFSZ 128
int main() {
char buf[BUFSZ];
char path[PATH_MAX];
char name[NAME_MAX];
char *home = NULL;
int fd, i;
memset(name, 0, NAME_MAX);
memset(path, 0, PATH_MAX);
memset(buf, 'A', BUFSZ);
buf[BUFSZ-1] = '\n';
/* Figure out some useful path to put this */
home = getenv("HOME");
if (!path)
errx(EX_SOFTWARE, "No HOME environment variable set. I give in!");
/* Dont use this without using open with O_EXCL! */
strcpy(name, "writethis.bin.XXXXXX");
mktemp(name);
snprintf(path, PATH_MAX, "%s/%s", home, name);
/* Open the file with flushy flags */
fd = open(path, O_WRONLY|O_APPEND|O_EXCL|O_CREAT|O_SYNC,
S_IRUSR|S_IWUSR);
if (fd < 0)
err(EX_OSERR, "Cannot open file");
/* Just need an inode, dont want it showing up in VFS.. */
if (unlink(path) < 0)
err(EX_OSERR, "Unlink failed. Something horrible probably happened");
/* Dont pollute cache */
if (posix_fadvise(fd, 0, 0, POSIX_FADV_DONTNEED))
err(EX_OSERR, "Fadvise failed?!");
/* Write */
for (i=0; i < 1000; i++) {
if (write(fd, buf, BUFSZ) < 0)
err(EX_OSERR, "Cannot write to file");
}
close(fd);
}
Пожалуйста, запустите это time
и дайте результаты.
Почти во всех случаях проблемы с производительностью нашего сервера Dell связаны с используемой картой RAID. Некоторые из продаваемых ими карт имеют ужасную производительность Linux.
ср. http://hwraid.le-vert.net/wiki/LSIMegaRAIDSAS vs. http://hwraid.le-vert.net/wiki/LSIFusionMPTSAS2
чтобы сравнить две карты, которые у вас есть в этих машинах. Последняя, в частности, является младшей картой, которая, вероятно, вообще не имеет аппаратного ускорения, в то время как первая - очень хорошая карта высокого класса с хорошим оборудованием на плате.
Как многие заявляли, вам может потребоваться убедиться, что ваш тест действительно измеряет то, что вы думаете - проблема вполне может заключаться в самом тесте, а воспринимаемая задержка или медлительность могут быть связаны с тем, что ввод-вывод связан с kernel / OS еще до того, как он достигнет дисков.
Вы можете рассмотреть возможность просмотра документации Dell по настройке производительности в настройках BIOS серверов 12-го поколения - большинство из них не знает, что эта документация существует, но вы будете удивлены, какие различия она может иметь.