Я хочу запустить простую искровую программу, но у меня есть некоторые ошибки. Моя среда: CentOS: 6.6 Java: 1.7.0_51 Scala: 2.10.4 Spark: spark-1.4.0-bin -hadoop2.6 Mesos: 0.22.1
Все установлено, и узлы запущены. Теперь у меня есть один главный узел Mesos и подчиненный узел Mesos. Мои свойства искры приведены ниже:
spark.app.id 20150624-185838-2885789888-5050-1291-0005
spark.app.name Spark shell
spark.driver.host 192.168.1.172
spark.driver.memory 512m
spark.driver.port 46428
spark.executor.id driver
spark.executor.memory 512m
spark.executor.uri http://192.168.1.172:8080/spark-1.4.0-bin-hadoop2.6.tgz
spark.externalBlockStore.folderName spark-91aafe3b-01a8-4c86-ac3b-999e278807c5
spark.fileserver.uri http://192.168.1.172:51240
spark.jars
spark.master mesos://zk://192.168.1.172:2181/mesos
spark.mesos.coarse true
spark.repl.class.uri http://192.168.1.172:51600
spark.scheduler.mode FIFO
Теперь, когда я запустил искру, он приходит к подсказке scala (scala>). После этого я получаю следующую ошибку: задача mesos 1 теперь TASK_FAILED, значение подчиненного устройства mesos занесено в черный список из-за слишком большого количества сбоев, на нем установлен Spark. Как решить эту проблему.