Назад | Перейти на главную страницу

Предложения по SAN для ESX?

Теперь мне нужно приступить к планированию замены нашего основного кластера ESX. Реализация будет примерно в декабре, но внезапно кажется, что это не так уж и далеко.

Прямо сейчас у меня есть пара хостов ESX, одноядерный четырехъядерный Dell PE2950 с 24 ГБ ОЗУ, каждый с двумя FC HBA, проходящими через пару коммутаторов в Dell / EMC AX4.

Прямо сейчас у меня есть около 17 ТБ необработанного хранилища, и из-за довольно простого пула дисков / виртуального диска, которым работает AX4, есть некоторые потери, но, как и в любом бизнесе, нам нужно только дополнительное хранилище.

У нас есть ряд виртуальных машин, начиная от нашего основного файлового сервера, Microsoft SQL Server, Exchange Server, а также множества виртуальных машин меньшего размера для определенных ролей, WSUS, антивируса, печати и т. Д.

У нас большой участок с оптоволоконным кабелем повсюду, и наше непосредственное «внешнее» местоположение - это еще одно здание в паре миль отсюда с оптоволоконным каналом 10 Гбит / с между ними.

Я хотел бы закончить с «умными» снимками состояния SAN и репликацией между устройствами на обоих концах волокна всего или выбранных LUN.

Мне не нужна мгновенная отработка отказа, я просто хотел бы быть в таком положении, когда, если одна комната будет уничтожена, я смогу запустить и запустить все (не обязательно все) в другом месте в разумных пределах (не SLA г) количество времени.

Буду очень признателен за предложения о том, на что обратить внимание при замене основного кластера / SAN.

Сейчас мои главные соперники - Equallogic и HP Lefthand P4000.


Я бы добавил комментарий, но, похоже, он не позволял мне набирать достаточно текста, так что ...

Мы используем Exchange и SQL, но использование довольно низкое. Сейчас мы находимся на Exchange 2003, но я надеюсь, что через несколько месяцев мы перейдем на Exchange 2010, поэтому требования к вводу-выводу хранилища должны немного снизиться.

Прямо сейчас у нас есть смесь в AX4 7.2k SATA и 10k и 15k SAS. AX $ - это наша первая SAN и наше первое упражнение по использованию ESX, и, честно говоря, я подозреваю, что я немного переборщил с характеристиками диска.

Наш самый загруженный период - это окно резервного копирования, и я провел некоторые измерения, по общему признанию, грубые, и, похоже, мы видим в среднем около 1400 IOPS - как вы говорите, основным ограничением может быть сетевая карта на нашем файловом сервере, которая составляет 1 Гбит / с. vNIC (файловый сервер - это ВМ).

Я не подумал заглянуть в графический интерфейс коммутатора в поисках показателей производительности, но я посмотрю, что смогу найти (это Brocade 200E, без переподсказки или что-то в этом роде).

Мне нужно немного покопаться в том, как работают драйверы MPIO различных продуктов. Насколько я понимаю, EQL открывает несколько подключений даже к одному и тому же iSCSI LUN - не уверен, сможет ли LeftHand это сделать или «1 LUN = максимальная пропускная способность 1 Гбит / с»?

Когда настанет время (примерно в декабре), мы, очевидно, выберем самый последний стабильный / поддерживаемый выпуск vSphere.

Что касается 10GigE, мне действительно нравится, как это звучит, однако к тому времени, когда вы учитываете избыточность, я не могу не думать, что это станет чертовски дорогим, и часть проблемы здесь в том, что пока мы не пытаемся быть дешево, у меня есть ограничение на то, что я могу потратить.

Включение Exchange и MSSQL в ESX означает, что у вас есть серьезные пользователи хранилища в вашем кластере, и все, что требуется хранилищу, должно поддерживать его. Вы используете AX4 с оптоволокном и, очевидно, не отставаете, но вы не упоминаете, какие у вас диски (SAS, SATA, 7,2 тыс. Об / мин, 15 тыс. Об / мин) или сколько у вас есть.

Один из шагов, на который я бы внимательно посмотрел, - это пиковая скорость передачи данных с устройства хранения. Переключатели FibreChannel должны иметь возможность. В прошлый раз я смотрел, что коммутаторы Dell FC были переоборудованы в блоки Brocade, и я знаю, что Brocade имеет «монитор производительности» в их графическом интерфейсе на основе Java. Если ваш максимальный объем операций ввода-вывода (который может быть во время резервного копирования) составляет менее 1 ГБ, тогда система на основе iSCSI вполне подойдет. Если он превышает 1 ГБ, вам необходимо позаботиться о том, чтобы ваши самые большие генераторы ввода-вывода были физически размещены в разных блоках iSCSI. FC может работать со скоростью до 4 Гбайт, а GigE - 1 Гбайт.

Знание того, сколько операций ввода-вывода хранилища генерируют ваши узлы ESX, является ключом к поиску наиболее подходящего решения на основе Ethernet. Если пиковое количество операций ввода-вывода превышает 1 Гбит / с, вам может потребоваться объединение сетевых карт для поддержания пропускной способности, но имейте в виду, что максимальная пропускная способность между парами IP по-прежнему равна GigE с объединением сетевых карт. 10GigE может это исправить, но я почти уверен, что эти карты еще не существуют в серверном пространстве, и я очень уверен, что они еще не существуют для LeftHand (хотя это скоро!). Убедитесь, что ваши большие потребители ввода-вывода (возможно, база данных и Exchange во время резервного копирования) находятся на разных узлах, разговаривая с разными узлами Equilogic / LeftHand, и все будет в порядке.

Что касается Equilogic против LeftHand, когда 12 месяцев назад у нас была полная пресса, LeftHand была действительно убедительной перспективой. У нас была презентация Equilogic примерно за неделю до объявления о слиянии, поэтому мы были хорошо знакомы с обеими линейками продуктов. Продукт LeftHand был технически лучше и, как мы думали, отлично справлялся с виртуальной сетью хранения. Идеи встроенной репликации (которую могут делать оба) было достаточно, чтобы заставить нас улыбнуться в ожидаемом восторге.