Hadoop: требуется пароль root после ввода start-all.sh

Я установил Hadoop и SSH на свой ноутбук. "ssh localhost" работает нормально. После форматирования HDFS я попытался запустить hadoop.

munichong@GrindPad:~$ sudo /usr/sbin/start-all.sh
starting namenode, logging to /var/log/hadoop/root/hadoop-root-namenode-GrindPad.out
root@localhost's password: 
root@localhost's password: localhost: Permission denied, please try again.

localhost: Permission denied (publickey,password).

Требует пароль. Моя роль "Муничонг". Но пароль munichong здесь не работает. Здесь моя роль изменилась на «корень». Не знаю, пропустил ли я что-то здесь.

Кто-нибудь может мне помочь?

Спасибо!


person Munichong    schedule 04.03.2013    source источник
comment
если вы выполняете его с sudo, то, конечно, он будет ожидать, что вы будете root и вам нужен пароль root, а не ваш! Или я что-то ужасно пропустил!   -  person Amar    schedule 04.03.2013
comment
@Amar Вы не ошибаетесь, но это не та проблема, о которой говорит ОП. Проблема, на которую ссылается ОП, вызвана тем, что скрипт запуска подключается к локальному хосту при запуске Hadoop. Он эффективно использует SSH, вызывая необходимость вводить пароль, если ключи SSH не настроены.   -  person James Mchugh    schedule 01.03.2019


Ответы (6)


Решение:

1) Сгенерировать ssh-ключ без пароля

$ ssh-keygen -t rsa -P ""

2) Скопировать id_rsa.pub в авторизованные ключи

$  cat $HOME/.ssh/id_rsa.pub >> $HOME/.ssh/authorized_keys

3) Запустите ssh на локальном хосте

$ ssh localhost

4) теперь перейдите в каталог sbin и запустите Hadoop

$./start-all.sh 
./start-all.sh
This script is Deprecated. Instead use start-dfs.sh and start-yarn.sh
Starting namenodes on [localhost]
localhost: starting namenode, logging to /home/amtex/Documents/installed/hadoop/logs/hadoop-amtex-namenode-amtex-desktop.out
localhost: starting datanode, logging to /home/amtex/Documents/installed/hadoop/logs/hadoop-amtex-datanode-amtex-desktop.out
Starting secondary namenodes [0.0.0.0]
0.0.0.0: starting secondarynamenode, logging to /home/amtex/Documents/installed/hadoop/logs/hadoop-amtex-secondarynamenode-amtex-desktop.out
starting yarn daemons
starting resourcemanager, logging to /home/amtex/Documents/installed/hadoop/logs/yarn-amtex-resourcemanager-amtex-desktop.out
localhost: starting nodemanager, logging to /home/amtex/Documents/installed/hadoop/logs/yarn-amtex-nodemanager-amtex-desktop.out

5)пароль не спрашивает

$ jps 
12373 Jps
11823 SecondaryNameNode
11643 DataNode
12278 NodeManager
11974 ResourceManager
11499 NameNode
person KARTHIKEYAN.A    schedule 05.09.2016
comment
Меня попросили ввести пароль для ssh localhost, но у меня нет этого пароля, пароль для учетной записи пользователя не подходит. - person Pythoner; 22.12.2016
comment
при создании ssh поле пароля пусто, так что при запуске сервисов Hadoop они автоматически запускаются один за другим без запроса пароля. @PythonNewHand - person KARTHIKEYAN.A; 22.12.2016

Как и в случае выше, munichong — это пользователь (munichong@GrindPad).

  1. В моем случае: Войдите как hduser

  2. Во-первых, удалите каталогsudo rm -rf ~/.ssh

  3. Используйте для повторного создания каталога /.ssh с настройками по умолчанию:

    [hduser@localhost ~]$ ssh-keygen
    
  4. Здесь мы копируем и вставляем содержимое id_rsa.pub в файл authorized_keys, созданный с помощью вышеуказанной команды)

    [hduser@localhost ~]$ sudo cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
    
  5. [hduser@localhost ~]$ chmod -R 750 ~/.ssh/authorized_keys

  6. #P7# <блочная цитата> #P8# #P9#
  7. [hduser@localhost ~]$ jps
    18531 Jps

  8. [hduser@localhost ~]$ start-all.sh

  9. Все демоны запускаются

Примечание. Иногда из-за файлов журналов возникают другие проблемы, в этом случае удалите только файлы с точками (.out) из /usr/local/hadoop/logs/.

person Nishant Shrivastava    schedule 04.01.2016

Я столкнулся с той же проблемой. Как сказал Амар, если вы работаете как sudo, hadoop запросит пароль root. Если у вас нет пароля root, вы можете установить его с помощью

 sudo passwd

ниже URL-адрес дает вам более подробную информацию об управлении пользователями.

https://help.ubuntu.com/12.04/serverguide/user-management.html

person javamak    schedule 18.04.2013

Создание и настройка сертификатов SSH Hadoop требуется доступ по SSH для управления своими узлами, то есть удаленными компьютерами и нашим локальным компьютером. Поэтому для нашей установки Hadoop с одним узлом нам необходимо настроить SSH-доступ к локальному хосту.

Итак, нам нужно, чтобы SSH был запущен и работал на нашей машине, и мы настроили его, чтобы разрешить аутентификацию с помощью открытого ключа SSH.

Hadoop использует SSH (для доступа к своим узлам), который обычно требует от пользователя ввода пароля. Однако это требование можно устранить, создав и настроив сертификаты SSH с помощью следующих команд. Если вас попросят ввести имя файла, просто оставьте его пустым и нажмите клавишу ввода, чтобы продолжить.

проверьте этот сайт

person bun    schedule 21.08.2015

Похоже, вы вошли в систему как root и вызвали start-all.sh.

Вместо этого войдите в систему как владелец каталога $SPARK_HOME и вызовите spark
start-all.sh.

(или)

Пусть пользователь hadoop является владельцем каталога $SPARK_HOME и в настоящее время вошел в систему как пользователь root, тогда команда будет выглядеть следующим образом:

sudo -u hadoop -c start-all.sh

Предположение:
а) PATH указывает на каталог $SPARK_HOME/bin
б) для пользователя hadoop настроена проверка подлинности на основе сертификата.

person AVA    schedule 09.02.2019

войдите в систему как суперпользователь или root

:~ su

Password:

дать разрешение пользователю

:~ sudo chown -R <log in user> /usr/local/hadoop/

для вашего примера войдите в систему под пользователем: munichong

HADOOP_HOME = /usr/local/hadoop/

person user3029620    schedule 14.10.2016