Можно ли проверить из оболочки Spark, какие узлы подключены к кластеру или работают только в локальном режиме? Я надеюсь использовать это для исследования следующей проблемы:
Я использовал DSE для настройки небольшого кластера Cassandra Analytics из 3 узлов. Я могу войти на любой из трех серверов, запустить dse spark
и запустить оболочку Spark. Я также проверил, что на всех трех серверах настроен мастер Spark, запустив dsetool sparkmaster
.
Однако, когда я запускаю любую задачу с помощью оболочки Spark, кажется, что она выполняется только локально. Я запустил небольшую тестовую команду:
val rdd = sc.cassandraTable("test", "test_table")
rdd.count
Когда я проверяю веб-страницу Spark Master, я вижу, что задание выполняется только на одном сервере.
Я подозреваю, что когда я запускаю dse spark
, он запускает оболочку в локальном режиме. Я посмотрел, как указать мастер для оболочки Spark 0.9.1, и даже когда я использую MASTER=<sparkmaster> dse spark
(из Руководство по программированию), он по-прежнему работает только в локальном режиме.