Hadoop Resourcemanager не запускается в другом кластере

Хадуп 2.7.1

Главный узел — это облако1, а еще один узел — это облако2.

хочу поставить вот так. В cloud1 есть Namenode, Datanode, Nodemanager. В cloud2 есть Resourcemanager, Datanode, Nodemanager.

И я настроил «yarn-site.xml» следующим образом.

<name>yarn.resourcemanager.hostname</name>
<value>cloud2</value>
<name>yarn.resourcemanager.webapp.address</name>
<value>cloud2</value>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>

Но Resourcemanager запускается локально (в облаке1).

Я не знаю, почему это происходит..

Пожалуйста помоги.


person Cloud    schedule 21.11.2015    source источник
comment
обратитесь к [yarn-default.xml][1] , для <name>yarn.resourcemanager.webapp.address</name> вы должны указать порт 8088. и мой главный вопрос: как вы запускаете демоны Hadoop? [1]: hadoop. apache.org/docs/r2.4.1/hadoop-yarn/hadoop-yarn-common/   -  person masoumeh    schedule 22.11.2015
comment
@masoumeh Я запускаю демоны Hadoop с помощью этих команд. 'sbin/start-dfs.sh', 'sbin/start-yarn.sh'   -  person Cloud    schedule 22.11.2015
comment
Вы выполняете эти команды в облаке1?   -  person masoumeh    schedule 22.11.2015


Ответы (1)


см. Настройка кластера , вы должны настроить yarn.resourcemanager.nodes.include-path для хостов менеджеров узлов и yarn.resourcemanager.address для менеджеров ресурсов и dfs.hosts для узлов данных и fs.defaultFS для узлов имен и сделать это как в облаке1, так и в облаке2. обратите внимание, что вы должны

Перечислите все имена подчиненных хостов или IP-адреса в файле etc/hadoop/slaves, по одному в строке.

использовать 'sbin/start-dfs.sh', 'sbin/start-yarn.sh'. Выполните эти инструкции и сообщите мне результат.

person masoumeh    schedule 22.11.2015