Я только что настроил межсерверную связь 4x SDR InfiniBand для увеличения пропускной способности для внутреннего хранилища моих виртуальных машин, в частности для сервера базы данных. Я использую iSCSI с TGTD на CentOS 6, и при тестировании с iperf я могу достичь примерно 6,45 Гбит / с с использованием IPoIB.
Мне удалось настроить инициатор и цель iSCSI до точки, при которой я могу достичь скорости записи около 260 МБ / с на SSD. Однако это все еще не оптимальная скорость записи, учитывая, что я могу записывать около 500-600 МБ / с локально.
В настоящее время я использую следующие параметры:
У кого-нибудь был опыт настройки этого? Можно ли получить что-либо выше, изменив конфигурацию? Даже выполняя RAID 0 на двух устройствах, я могу достичь только той же пропускной способности, которую я ожидал бы выше.
Полученные вами результаты вполне ожидаемы при текущей настройке. Вы можете получить дополнительный прирост производительности с iser
вид транспорта.
Советы по настройке от README.iser
Цель:
./tgtadm --lld iser --mode target \
--op new --tid 1 --targetname "iqn.$(hostname).t1"
./tgtadm --lld iser --mode target \
--op bind --tid 1 --initiator-address ALL
./tgtadm --lld iser --mode logicalunit \
--op new --tid 1 --lun 1 \ --backing-store /dev/sde
--bstype rdwr
Инициатор:
iscsiadm -m discovery -t sendtargets -p $targe
iscsiadm -m node -p $targetip -T $targetname --op update \
-n node.transport_name -v iser
iscsiadm -m node -p $targetip -T $targetname --login
Связанный полезный вопрос SF: Настроить простое блочное хранилище Infiniband (SRP или iSER).