Как перезапустить службы hadoop в кластере dataproc

Возможно, я ищу неправильные термины, но Google не сообщает мне, как это сделать. Вопрос в том, как я могу перезапустить службы hadoop на Dataproc после изменения некоторых файлов конфигурации (свойств пряжи и т. Д.)?

Сервисы должны быть перезапущены в определенном порядке во всем кластере. Там должны быть сценарии или инструменты, надеюсь, в установке Dataproc, которые я могу вызвать для перезапуска кластера.


person EduBoom    schedule 03.04.2017    source источник


Ответы (1)


Настройка свойств - распространенный и хорошо поддерживаемый вариант использования.

Это можно сделать с помощью свойств кластера, перезапуск демона не требуется. Пример:

dataproc clusters create my-cluster --properties yarn:yarn.resourcemanager.client.thread-count=100

Если вы делаете что-то более сложное, например обновляете уровни журнала обслуживания, вы можете использовать systemctl для перезапуска служб.

Сначала подключитесь по ssh к узлу кластера и введите systemctl, чтобы увидеть список доступных служб. Например, чтобы перезапустить HDFS NameNode, введите sudo systemctl restart hadoop-hdfs-namenode.service

Если это часть действия инициализации, sudo не требуется.

person tix    schedule 03.04.2017