Можно ли хотя бы построить кластер Hadoop из узлов на базе Raspberry Pi? Может ли такой кластер соответствовать аппаратным требованиям Hadoop? И если да, то сколько узлов Raspberry Pi требуется для выполнения требований?
Я понимаю, что дешевый кластер из нескольких узлов Raspberry Pi не является мощным. Моя цель - организовать кластер без возможности потери личных данных с моего рабочего стола или ноутбука, и использовать этот кластер для изучения Hadoop.
Буду признателен, если вы предложите какие-либо более эффективные идеи по организации дешевого кластера Hadoop для учебных целей.
UPD: я видел, что рекомендуемый объем памяти для Hadoop составляет 16-24 ГБ, многоядерные процессоры и 1 ТБ жесткого диска, но это не похоже на минимальные требования.
UPD2: Я понял, что serverfault.com - это место для вопросов, связанных с производственными системами. Вопросы, связанные с настройкой систем для развлечения и личного использования, выходят за рамки. Извините, что задаю этот вопрос.
Было бы невероятно плохо. Хадуп кучу ест как слон. Размер кучи по умолчанию составляет 1000 МБ, но почти все его увеличивают. 256 МБ ОЗУ не дадут вам многого, после того, как графический процессор и операционная система возьмут свое, вам, вероятно, придется ограничить Java до 128 МБ, и самые маленькие задания будут исчерпаны из кучи.
JVM также очень медленная на ARM. Red Hat планирует работать с Linaro, чтобы улучшить это с помощью Red Hat Enterprise Linux 7, но не ожидайте, что какое-то время будет достаточно загружать сервер Java на ARM.