У нас есть небольшой «самодельный» сервер, на котором работает полностью обновленный Debian Wheezy (amd64). Установлен один жесткий диск: WDC WD6400AAKS. Материнская плата - ASUS M4N68T V2.
Обычная нагрузка:
Боюсь, что жесткий диск вот-вот выйдет из строя. Я видел Pre-fail в нескольких местах, когда я бегал:
root@SERVER:/tmp# smartctl -a /dev/sda
smartctl 5.41 2011-06-09 r3365 [x86_64-linux-3.2.0-4-amd64] (local build)
Copyright (C) 2002-11 by Bruce Allen, http://smartmontools.sourceforge.net
=== START OF INFORMATION SECTION ===
Model Family: Western Digital Caviar Blue Serial ATA
Device Model: WDC WD6400AAKS-XXXXXXX
Serial Number: WD-XXXXXXXXXXXXXXXXXXX
LU WWN Device Id: 5 0014ee XXXXXXXXXXXXX
Firmware Version: 01.03B01
User Capacity: 640,135,028,736 bytes [640 GB]
Sector Size: 512 bytes logical/physical
Device is: In smartctl database [for details use: -P show]
ATA Version is: 8
ATA Standard is: Exact ATA specification draft version not indicated
Local Time is: Mon Oct 28 18:55:27 2013 UTC
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED
General SMART Values:
Offline data collection status: (0x85) Offline data collection activity
was aborted by an interrupting command from host.
Auto Offline Data Collection: Enabled.
Self-test execution status: ( 247) Self-test routine in progress...
70% of test remaining.
Total time to complete Offline
data collection: (11580) seconds.
Offline data collection
capabilities: (0x7b) SMART execute Offline immediate.
Auto Offline data collection on/off support.
Suspend Offline collection upon new
command.
Offline surface scan supported.
Self-test supported.
Conveyance Self-test supported.
Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 2) minutes.
Extended self-test routine
recommended polling time: ( 136) minutes.
Conveyance self-test routine
recommended polling time: ( 5) minutes.
SCT capabilities: (0x303f) SCT Status supported.
SCT Error Recovery Control supported.
SCT Feature Control supported.
SCT Data Table supported.
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x002f 200 200 051 Pre-fail Always - 0
3 Spin_Up_Time 0x0027 157 146 021 Pre-fail Always - 5108
4 Start_Stop_Count 0x0032 098 098 000 Old_age Always - 2968
5 Reallocated_Sector_Ct 0x0033 200 200 140 Pre-fail Always - 0
7 Seek_Error_Rate 0x002e 200 200 051 Old_age Always - 0
9 Power_On_Hours 0x0032 079 079 000 Old_age Always - 15445
10 Spin_Retry_Count 0x0032 100 100 051 Old_age Always - 0
11 Calibration_Retry_Count 0x0032 100 100 051 Old_age Always - 0
12 Power_Cycle_Count 0x0032 098 098 000 Old_age Always - 2950
192 Power-Off_Retract_Count 0x0032 200 200 000 Old_age Always - 426
193 Load_Cycle_Count 0x0032 200 200 000 Old_age Always - 2968
194 Temperature_Celsius 0x0022 111 095 000 Old_age Always - 36
196 Reallocated_Event_Count 0x0032 200 200 000 Old_age Always - 0
197 Current_Pending_Sector 0x0032 200 200 000 Old_age Always - 0
198 Offline_Uncorrectable 0x0030 200 200 000 Old_age Offline - 0
199 UDMA_CRC_Error_Count 0x0032 200 160 000 Old_age Always - 21716
200 Multi_Zone_Error_Rate 0x0008 200 200 051 Old_age Offline - 0
SMART Error Log Version: 1
No Errors Logged
SMART Self-test log structure revision number 1
Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error
# 1 Short offline Completed without error 00% 15444 -
Error SMART Read Selective Self-Test Log failed: scsi error aborted command
Smartctl: SMART Selective Self Test Log Read Failed
root@SERVER:/tmp#
В одном учебном пособии я прочитал, что предварительный отказ является индикатором приближающегося отказа, в другом учебном пособии я прочитал, что это неправда. Не могли бы вы помочь мне расшифровать вывод smartctl?
Было бы также неплохо поделиться предложениями, что мне делать, если я хочу обеспечить целостность данных (около 50 ГБ новых данных каждую неделю, до 2 ТБ на весь интересующий меня период). Может, я пойду с Caviar Black 2x2TB в RAID4?
«Завершено без ошибок»
В списке с упоминанием prefail показаны типы ошибок, которые возможны с их пороговыми значениями. Ни одно из ваших худших значений не превышает пороговых значений.
Возьмите 2 диска, используйте RAID1 или получите 4 диска и используйте RAID10. RAID4 не используется.
Как уже упоминалось, текст «Prefail» указывает только на тип записи. И в зависимости от записи не все вообще являются ошибкой. Spin_Up_Time, например, просто подсчитывает, как часто привод был запущен, Load_Cycle_Count подсчитывает, как часто была припаркована головка.
Значение, которое дает мне паузу, - UDMA_CRC_Error_Count на 21716. Это могло быть вызвано плохим / ослабленным кабелем или отказом электроники.
Reallocated_Sector_Ct, Current_Pending_Sector или Offline_Uncorrectable поднимаются, если есть ошибка поверхности. Все они равны 0, так что с диском все в порядке.
Следующее указывает на то, что тест все еще выполняется:
Self-test execution status: ( 247) Self-test routine in progress...
70% of test remaining.
По завершении в разделе «Структура журнала самопроверки SMART» должна появиться еще одна запись. Вы должны использовать длинный тест (smartctl -t long), чтобы получить значимые результаты. Записанный тест был коротким.
Что касается более высокой целостности данных: для RAID4 потребуется как минимум 3 диска, и он больше не используется (заменен на RAID5). Но в вашем случае подойдет либо RAID1 с 2 дисками, либо RAID10 с 4 дисками. Оба режима вдвое сокращают доступное пространство, но продолжают работать, если один диск выходит из строя. Преимущество RAID10 в том, что он быстрее, поскольку он распределяет нагрузку на большее количество дисков и, в зависимости от того, какие из них вышли из строя, выживает даже 2 отказавших диска. Если один диск достаточно быстрый, RAID1 тоже будет достаточно быстрым (скорость записи такая же, скорость чтения удваивается для больших объемов данных).