Я частично унаследовал Linux HA-кластер, в центре которого в настоящее время обслуживается соединение с DRBD 8 через IPoIB (IP через InfiniBand) между двумя хостами Debian. Он не сломан, поэтому я не буду его исправлять.
Я также заметил, что DRBD 9 поддерживает RDMA, поэтому может возникнуть вопрос, заменять ли соединение с DRBD 9 через RDMA (т.е. «родной» InfiniBand) в будущем.
Поскольку я не хочу проводить тесты производительности в производственной системе, мне интересно: есть ли опубликованные сравнения производительности для IPoIB и RDMA / InfiniBand. Например, могу ли я ожидать увеличения полосы пропускания / задержки при переходе с IPoIB на порядок, скажем, 10%, 50% или 100%? Чего можно было ожидать?
вы видели эти презентации? https://www.linbit.com/en/drbd-9-over-rdma-with-micron-ssds/ http://downloads.openfabrics.org/Media/Monterey_2015/Tuesday/tuesday_09_ma.pdf
InfiniBand - это просто конкретная сетевая архитектура, предлагающая RDMA, но ваша производительность будет зависеть от того, какие типы приложений вы используете. Мой опыт основан на академических / исследовательских системах, в основном использующих приложения на основе MPI. В некоторых случаях я видел, что RDMA работает на 20% лучше, чем IPoIB. Но мне ничего не известно о таком тестировании, но написано множество научных статей, а также официальных документов поставщиков. Если вы просто думаете о вводе-выводе, подумайте: размеры файлов, количество чтений и записей. RDMA обычно дает большие преимущества для случайных небольших чтений, но только небольшие преимущества для записи. Возможно, вы захотите прочитать о RoCE (RDMA через конвергентный Ethernet) и собственном RDMA InfiniBand.