Контрольная точка Spark Streaming для удаленных hdfs

Я пытаюсь проверить контекст потоковой передачи искры на hdfs, чтобы обработать сбой в какой-то момент моего приложения. У меня есть установка HDFS в отдельном кластере, а искра работает на отдельном автономном сервере. Для этого я использую:

ssc.checkpoint(directory: String)

Это дает мне: org.apache.hadoop.security.AccessControlException: Permission denied: user=root, access=WRITE, когда я пытаюсь использовать каталог как "hdfs://hostname:port/pathToFolder"

Как я могу сделать контрольную точку на удаленном пути hdfs? Можно ли добавить учетные данные в строку uri? Пробовал гуглить, но пока не помогло.

Спасибо и ценю любую помощь!


person void    schedule 09.03.2016    source источник
comment
Вы пробовали hdfs://имя пользователя:пароль@имя хоста:порт/путь к папке?   -  person Marco    schedule 09.03.2016
comment
спасибо, это сработало.   -  person void    schedule 11.03.2016
comment
отличный! Я поставлю это как ответ   -  person Marco    schedule 13.03.2016


Ответы (1)


Вы можете предоставить учетные данные, используя:

hdfs://username:password@hostname:port/pathToFolder
person Marco    schedule 13.03.2016