Я новичок. Пытаюсь настроить систему hdfs для обслуживания моих данных (я не планирую использовать mapreduce) в своей лаборатории.
До сих пор я прочитал, настройка кластера, но я все еще не понимаю. Несколько вопросов:
Я запутался, потому что, похоже, большая часть документации предполагает, что я хочу использовать map-reduce, а это не так.
Чтобы ответить на ваши первые 2 вопроса: 1. Нет, вам не нужен вторичный namenode, если вас не волнует, вылетает ли namenode 2. Вам нужны подчиненные файлы для запуска демонов datanode из namenode с помощью команды hadoop bash start-dfs.sh. Вам не нужен главный файл, если вы не хотите использовать вторичный именной узел
Для вашего третьего вопроса. Существует пошаговая документация о том, как установить небольшой кластер hadoop на http://www.hadoop-blog.com/2010/11/how-to-quickly-install-hadoop-020-in.html
Пожалуйста, пройдите через это, вы можете пропустить шаги, которые говорят о JobTracker и Tasktrackers, и этого должно быть достаточно, чтобы запустить HDFS.