Учитывая MTTF Т индивидуальной езды (скажем, 100000 часов) и среднего времени р оператору требуется заменить вышедший из строя диск, а контроллер массива - восстановить массив (скажем, 10 часов), сколько времени в среднем потребуется для выхода из строя второго диска, пока предыдущий сбой все еще заменяется, что обрекает целиком N-диск RAID5?
В своих собственных расчетах я продолжаю придумывать результаты многих столетий - даже для больших значений N и р, что означает, что использование «горячего резерва» для сокращения времени восстановления - пустая трата ... Тем не менее, многие люди предпочитают выделять слот в массиве RAID для горячего резерва (вместо увеличения емкости), это меня сбивает с толку .. .
Давайте попробуем 10-дисковый массив RAID5 с AFR 3% и двухдневным временем восстановления и сделаем некоторые грубые вычисления:
3% AFR для 10 дисков означает, что примерно у нас будет 30% вероятность отказа одного диска в год.
Если предположить, что время восстановления составляет два дня, это означает, что вероятность того, что один из девяти оставшихся дисков выйдет из строя во время восстановления, составляет около 1,5% (30 * 9 * 2/365). Это дает нам шанс примерно 0,5% (0,3 * 1,5) катастрофического отказа с перерывом в обслуживании в конкретный год.
Я согласен с тем, что горячий резерв не является правильным решением этой проблемы. Это лишь немного сокращает время восстановления.