У меня проблема с архивным сервером, на котором работает RAID 5. Доступ к серверу осуществляется только раз в пару дней, поэтому я хочу, чтобы эти диски останавливались, когда какое-то время нет активности.
Отказ от ответственности: я понимаю, что замедление вращения дисков - плохая практика. Я не прошу совета по сроку службы диска. Я прошу помощи в том, как сделать так, чтобы спины происходили. Спасибо.
Файловая система - ext4. Я увеличил интервал фиксации ext4 с помощью соответствующей опции монтирования и убедился, что jbd2 не выполняет никаких действий. Я также настроил systemd-journald в энергозависимый режим и отключил любое другое несущественное ведение журнала. Я на 100% проверил, что файлы журналов не записываются и никакие процессы пользовательского пространства не имеют операций ввода-вывода. Свопинг отключен.
Тем не менее, iosnoop показывает периодические записи в секторы 2056, 2064 и 2088 дисков в массиве. Я подозреваю, что именно здесь хранится суперблок или связанная с ним информация. Моя рабочая теория состоит в том, что mdadm отмечает RAID как синхронизированный или что-то в этом роде, но я не смог найти в Google никакой соответствующей информации.
Есть ли у кого-нибудь альтернативная теория или идея, как я могу остановить IO?
Вот трассировка iosnoop для первого диска в массиве:
# iosnoop-perf -s -d "8,16"
Tracing block I/O. Ctrl-C to end.
STARTs COMM PID TYPE DEV BLOCK BYTES LATms
5068.962692 md0_raid5 249 FF 8,16 18446744073709551615 0 0.35
5068.963054 <idle> 0 WFS 8,16 2064 4096 21.28
5068.990201 md0_raid5 249 FF 8,16 18446744073709551615 0 0.40
5068.990619 <idle> 0 WFS 8,16 2056 512 18.70
5069.017432 kworker/1:1H 216 FF 8,16 18446744073709551615 0 0.42
5069.017866 <idle> 0 WFS 8,16 2088 3072 24.86
5069.442687 md0_raid5 249 FF 8,16 18446744073709551615 0 0.40
5069.443104 <idle> 0 WFS 8,16 2064 4096 7.90
5069.467942 md0_raid5 249 FF 8,16 18446744073709551615 0 0.40
5069.468360 <idle> 0 WFS 8,16 2056 512 57.62
5074.578771 md0_raid5 249 FF 8,16 18446744073709551615 0 0.41
5074.579195 <idle> 0 WFS 8,16 2064 4096 21.82
5084.818728 md0_raid5 249 FF 8,16 18446744073709551615 0 0.41
5084.819146 <idle> 0 WFS 8,16 2088 3072 31.92
5125.794841 md0_raid5 249 FF 8,16 18446744073709551615 0 0.35
5125.795205 <idle> 0 WFS 8,16 2064 4096 22.49
5125.823437 md0_raid5 249 FF 8,16 18446744073709551615 0 0.41
5125.823855 <idle> 0 WFS 8,16 2056 512 18.83
5125.850640 kworker/1:1H 216 FF 8,16 18446744073709551615 0 0.42
5125.851071 <idle> 0 WFS 8,16 2080 4096 8.33
5125.859599 kworker/1:1H 216 FF 8,16 18446744073709551615 0 0.42
5125.860026 <idle> 0 WFS 8,16 2064 4096 7.67
5126.146833 md0_raid5 249 FF 8,16 18446744073709551615 0 3.50
5126.150353 <idle> 0 WFS 8,16 2064 4096 8.98
5126.159498 md0_raid5 249 FF 8,16 18446744073709551615 0 4.39
5126.163913 <idle> 0 WFS 8,16 2056 512 53.75
5131.410989 md0_raid5 249 FF 8,16 18446744073709551615 0 0.41
5131.411412 <idle> 0 WFS 8,16 2064 4096 22.99
5141.650858 md0_raid5 249 FF 8,16 18446744073709551615 0 0.41
5141.651276 <idle> 0 WFS 8,16 2064 4096 16.40
5141.667708 <idle> 0 FF 8,16 18446744073709551615 0 0.29
5141.668012 <idle> 0 WFS 8,16 2080 4096 7.95