apache-spark – список вопросов по тегу – страница №3
Я установил Apache Hadoop, spark, hive (мета-хранилище как встроенное дерби) и Scala на сервере Ubuntu и настроил его индивидуально. Каждый раз, когда я пытаюсь запустить...
мы используем следующий кластер HDP с амбари, список узлов и их версия RHEL 3 masters machines ( with namenode & resource manager ) , installed on RHEL 7.2...
Я работаю над проектом обработки потока данных, в котором я буду использовать Apache Flink и Apache Spark, и я хочу использовать HDFS для хранения. Разработка и тестирование...
Я запускаю 6-узловой искровый кластер в Google Data Proc, и в течение нескольких минут после запуска искры и выполнения основных операций я получаю следующую ошибку OpenJDK...
Я хочу настроить кластер с использованием hadoop в режиме пряжи. Я хочу использовать Spark API для map-reduce и буду использовать Spark submit для развертывания своих...