Я экспериментирую с различными конфигурациями RAID нового Adaptec 6805 (не модели E). Прикреплено 8 дисков Hitachi 5400RPM 2 ТБ SATA 6 ГБ с использованием прилагаемых кабелей miniSAS к SATA.
Я создал массив RAID6, состоящий из четырех дисков, по два от каждого разъема. Затем я попытался расширить массив до остальных дисков.
Моя проблема в том, что реконфигурация рейда никогда не продвигается. По прошествии более 24 часов Adaptec Storage Manager по-прежнему показывает, что завершен на 0%. Я не использую логический массив активно - поэтому не могу представить, что это должно быть важным фактором.
Редактировать:
Спасибо за ответы. Уточняю - на диски нет нагрузки, а данных очень мало (~ 5ГБ). Примерно через 35 часов он, наконец, показал около 1% - поэтому я сдался и удалил массив.
Моя главная проблема на самом деле заключается в следующем: если для выполнения 1% требуется ~ 35 часов, экстраполяция этого означает, что потребуется около 4-5 месяцев, чтобы выполнить восстановление, если диск вышел из строя.
Я проверю это, отключив диск и посмотрев, сколько времени потребуется на его восстановление.
У меня есть Adaptec 5405Z с дисками 20x2TB 7200 об / мин на объединительной плате SAS. Я попытался переконфигурировать его, чтобы перейти с 8 дисков на 20. Мы используем его для безопасного хранения видео. Поскольку коробка была по существу совершенно новой, я подумал, почему бы не посмотреть, сколько времени потребуется, чтобы сохранить в массиве ~ 2 ТБ данных. Примерно через неделю, когда он добрался только до 10%, я сдался. Сделал резервную копию, протер и начал заново. Я попробовал тот же тест с RAID 10 и RAID 5, оба, казалось, сканировали, но в конце концов закончились. Хотя, по правде говоря, я уверен, что мое программное обеспечение DVR замедляло реконфигурацию, постоянно записывая на диск. Вы учли дополнительную нагрузку на диски при восстановлении?
Очевидно, у меня на несколько дисков больше, чем у вас, но по какой-то причине перенастройка, похоже, затянулась на довольно долгое время. Когда я попытался заставить Adaptec ответить на вопрос, они не сильно помогли, так как ответ, казалось, был «это зависит от вашей конфигурации и количества данных в массиве».
Бит 0% немного странный, но если бы массив был полностью пуст, я бы ожидал, что реконфигурация будет выполнена довольно быстро, конечно, менее чем за час. Тем не менее, если на нем есть данные, это может занять несколько дней, а эти диски большие и медленные, так что это тоже не поможет. И это указывает на то, сколько времени может занять восстановление, вот почему системные администраторы не любят использовать R5 или R6 при использовании больших и медленных дисков - восстановление занимает много времени и подвергает вас риску, пока они это делают.
Если у вас нет данных в массиве или вы можете быстро переместить его на другой диск, подумайте об уничтожении массива и его восстановлении по мере необходимости. Лично я бы купил диски на 3 ТБ и их R10, но это ваш выбор.
Adaptec 5805 (с BBU) здесь и пытается увеличить 8-дисковый массив RAID5. Сначала мы заменили все диски емкостью 2 ТБ на 3 ТБ (диски Nearline SAS), при этом каждая перестройка (разумеется, массив деградировал каждый раз, когда мы заменяли один диск) занимала около 3 дней.
Теперь, после замены всех дисков, мы начали увеличивать размер LUN с ~ 13 ТБ до нового ~ 19 ТБ. Итак, через неделю мы выполнили ~ 10% этой задачи.
Это кажется длинным - у меня есть 12x 750 ГБ на 5805Z (BBU), RAID 6, домашний сервер. Когда я потерял один диск, восстановление заняло ~ 4 часа. Во время этого восстановления отказал другой диск (поэтому я НИКОГДА не использовал бы RAID 5 - диски всегда выходят из строя при большой нагрузке - например, при восстановлении / OCE). На это тоже ушло около 4 часов.
Я заменил 4750 дисками на 3 ТБ и создал второй массив RAID6 на дополнительном пространстве (т.е. 4x ~ 2 ТБ). Буквально на прошлой неделе я заменил другой диск емкостью 750 ГБ на 3 ТБ и расширил второй массив (т.е. до 5x 2 ТБ) - это заняло чуть меньше недели (с 4 ТБ до 6 ТБ).
Значит, вы увеличиваете размер всего массива сразу? Моя, похоже, собиралась добавлять 2 ТБ в неделю. Ваш был бы экстраполирован на 3 * (2 ТБ в неделю) или на 3 недели в целом, 33% в неделю, но я не знаю, так ли масштабируется математика. Было бы намного быстрее просто определить второй массив в дополнительном пространстве ...
Чтобы добавить свой недавний опыт работы со скоростью увеличения емкости в сети:
Расширение онлайн-емкости заняло ~ 36 часов. Существующий раздел 3 ТБ был почти заполнен. Загрузился в Windows Server 2016 R2, но без нагрузки на диски.
Предоставляю свои 2 цента тем, кого интересует ...
С 2009 года я использую жесткие диски HGST 2 ТБ в конфигурации RAID6 на контроллере SAS Highpoint RocketRAID 4321 (IOP348 1,2 ГГц) 3 Гбит / с, подключенном через SFF-8088 к башне хранения с 15 отсеками, оснащенной Acera ARC-8020-16 Расширитель SAS 3 Гбит / с. К 2012 году он был расширен до максимальной емкости для безошибочной быстрой передачи файлов 26 ТБ. По сей день у меня все еще есть оригинальные жесткие диски, которые в последнее время предоставляют сочетание хранилища, в основном мультимедийного, и гарантируют, что самый важный контент хранится в моей учетной записи Dropbox 2 ТБ ...
В этом году, решив остаться с жесткими дисками HGST, я приобрел свой первый жесткий диск емкостью 10 ТБ (10,0 ТБ HGST Deskstar NAS, 3,5-дюймовый SATA 6,0 Гбит / с, 7200 об / мин - HDN721010ALE604) и сделал его основным хранилищем медиасервера Plex на несколько месяцев ...
После довольно быстрого заполнения одного жесткого диска я наткнулся на множество 5x RAID-контроллеров Adaptec 6805T SAS с модулями AFM-600 (4G NAND ZMM) по 25 долларов каждый. Итак, я решил спланировать обновление медиасервера Plex с RAID. Но сначала я хотел протестировать RAID-контроллеры на своем лабораторном сервере ESXi 6.5 [двойной Xeon x5690 3,46 ГГц (24 потока) и 96 ГБ ОЗУ на материнской плате eVGA SR-2 Classified на базе набора микросхем Intel 5520]. После обновления и тестирования каждого контроллера с последней сборкой 19204 от августа 2017 года мне удалось настроить контроллер вместе с maxView Storage Manager на сервере VMware с помощью драйвера VMware 6.0 v1.2.1-52040_cert и VMware 6.0 maxView Storage Manager v2.05_22932 .
Я провел тщательное исследование использования 6805T с жестким диском HGST Deskstar NAS 10,0 ТБ, 3,5-дюймовым SATA 6,0 Гбит / с, 7200 об / мин (HDN721010ALE604), но смог только обнаружить, что линейка жестких дисков HGST UltraStar тестировалась с контроллером. Кроме того, я нашел статью Ask Adaptec «Поддержка жестких дисков SATA и SAS размером 2 ТБ или больше», в которой контроллеры Series 6, 6E, 6T, 6Q, как правило, были протестированы с жесткими дисками 10 ТБ, и в целом утверждалось, что поддерживаются жесткие диски 12 ТБ. и жесткие диски 14 ТБ не тестировались. Итак, я реализовал свой план.
Во-первых, я купил четыре из имеющихся на распродаже жестких дисков емкостью 10 ТБ по 299,75 долларов каждый на MacSales.com (очень хорошая покупка в то время, когда средняя цена составляла 30 долларов). После доставки я начал со сборки RAID 5, выполнение которой заняло 46 часов:
Building/Verifying 4x 10TB HDDs RAID5
Start: Sat/20181103 20:51:26
Complete: Mon/20181105 18:53:54
Затем я скопировал все содержимое моего единственного жесткого диска и добавил его в контроллер, чтобы начать миграцию с RAID 5 на RAID 6, состоящую из 5 жестких дисков, обеспечивающих 30 ТБ хранилища. Это продолжается и занимает гораздо больше времени:
Reconfiguring (Migration/Expansion: RAID6 after adding Connector 0: Device 3 (very first 10TB HDD used as a single drive for weeks…)
Start: Thu/20181108 16:49
20%: Sat/20181110 17:00
27%: Sun/20181111 17:00
34%: Mon/20181112 17:00
42%: Tue/20181113 17:00
48%: Wed/20181114 17:00
Я ожидаю, что процесс займет в общей сложности чуть меньше двух недель. Я обязательно предоставлю дополнение к этому сообщению после его завершения.
Я купил еще три жестких диска по специальной цене в ожидании расширения массива RAID 6. Я также сообщу о его результатах в качестве дополнения к этому посту.
Недавно я купил подержанный расширитель SAS Acera ARC-8026-24 6 Гбит / с на eBay за 150 долларов (полностью проверенный работоспособность с моей башней для хранения данных с 15 отсеками), который я буду тестировать с 6805T позже. Эти результаты также являются дополнительным приложением.
ОБНОВЛЕНИЕ 20181123: реконфигурация RAID5 с 30 ТБ 4x 10 ТБ на 5x RAID6 заняла немного больше времени, чем ожидалось в ранних отчетах о прогрессе. Вместо немногим менее двух недель общая реконфигурация заняла 15 дней, 1 час и 34 минуты:
Start: Thu/20181108 16:49
20%: Sat/20181110 17:00
27%: Sun/20181111 17:00
34%: Mon/20181112 17:00
42%: Tue/20181113 17:00
48%: Wed/20181114 17:00
54%: Thu/20181115 17:00
60%: Fri/20181116 17:00
67%: Sat/20181117 17:00
73%: Sun/20181118 17:00
79%: Mon/20181119 17:00
85%: Tue/20181120 17:00
90%: Wed/20181121 17:00
94%: Thu/20181122 17:00
99%: Fri/20181123 17:00
100%: Fri/20181123 18:34
Я хотел бы отметить, что я выполнял некоторые операции чтения / записи с массивом, а также несколько перезагрузок сервера во время реконфигурации RAID-массива.
Во время реконфигурации производительность чтения / записи сильно упала до 15-25 Мбит / с. Но после перенастройки я получал 500 МБ / с при чтении и 300 МБ / с для записи, протестированных с помощью SSD, чтобы убедиться, что производительность RAID 6 была максимальной. Я даже сомневался, что система RAID6 была максимально загружена в соответствии с диспетчером задач Windows 10 - показания на вкладке «Производительность» никогда не превышали 97%.
Кроме того, я создал RAID1 10 ТБ 2x 10 ТБ на том же контроллере Adaptec 6805T (где быстрая инициализация длилась всего несколько секунд, пока выполнялась реконфигурация с RAID5 на RAID6) и проверил пропускную способность путем копирования из массива RAID1 в массив RAID6. . Перемещаемые 500 ГБ данных показывают чуть более 150 МБ / с, при этом RAID1 показывает немного больше налогов, чем RAID6, согласно Диспетчеру задач Windows 10 - вкладка «Производительность», массив RAID6 в среднем составляет 75%, а массив RAID1 - в среднем 95%. (RAID6: 5 жестких дисков по 10 ТБ на разъеме 0, устройство 3 и разъем 1, устройства 0–3; RAID1: 2 жестких диска по 10 ТБ на разъеме 0, устройства 1-2).
Мой следующий шаг - определить, сколько времени потребуется, чтобы выполнить расширение массива RAID6 с 30 ТБ (5 жестких дисков по 10 ТБ) до 40 ТБ (6 жестких дисков по 10 ТБ).