Я изучаю стратегию онлайн-резервного копирования. Я вижу несколько полезных вопросов о провайдерах.
Я ищу общие рекомендации, которые следует учитывать при разработке стратегии резервного копирования в Интернете.
Кажется, что все забывают о восстановлении после бедствия. Если у вас небольшое количество данных, нет реальной проблемы, потому что вы просто копируете их обратно по сети. Однако, если у вас есть растущий набор данных, который может когда-либо стать довольно большим, количество времени (и, возможно, затраты на трафик), необходимое для копирования всех этих данных обратно в вашу живую установку для восстановления операции, вероятно, будет непомерно высоким.
Помните, что обычно вы не можете начать копирование всех данных обратно, пока не будет создана инфраструктура хранения, поэтому вы не можете легко распараллелить копирование данных и настройку оборудования. Это большая проблема, о которой мало кто задумывается.
Вот несколько указателей, которые я бы искал:
Для фактических рекомендаций по обслуживанию для локального настольного компьютера есть такие вещи, как Jungledisk (синхронизирует каталог с онлайн-версией, размещенной с помощью Amazon S3) или Dropbox (то же самое, фиксированная ставка за хранилище, без затрат на пропускную способность) или развертывание собственного сервиса с помощью своего рода NAS-хостинг, вроде новой облачной платформы хранения The Planet.
Лично я синхронизирую данные с Dropbox, который синхронизируется с моим ноутбуком, рабочим столом и домашними компьютерами, но я бы не хотел использовать это для важных корпоративных задач безопасности.