Я запускаю сервер воздушного потока и рабочий на разных машинах AWS. Я синхронизировал эту папку dags между ними, запустил airflow initdb
на обоих и проверил, что dag_id одинаковы, когда я запускаю airflow list_tasks <dag_id>
Когда я запускаю планировщик и воркер, я получаю эту ошибку у воркера:
airflow.exceptions.AirflowException: dag_id не может быть найден:. Либо дага не существовало, либо его не удалось разобрать. [...] Команда ...-- local -sd /home/ubuntu/airflow/dags/airflow_tutorial.py '
Проблема, по-видимому, в том, что указан неверный путь (/home/ubuntu/airflow/dags/airflow_tutorial.py), поскольку правильный путь - / home / hadoop / ...
На сервере это путь с ubuntu, но в обоих файлах конфигурации это просто ~/airflow/...
Что заставляет рабочего смотреть на этот путь, а не на правильный?
Как мне сказать, чтобы он смотрел в его собственном домашнем каталоге?
изменить:
- Вряд ли это проблема конфигурации. Я запустил
grep -R ubuntu
, и единственные вхождения в журналы - Когда я запускаю то же самое на компьютере с
ubuntu
в качестве пользователя, все работает. Это наводит меня на мысль, что по какой-то причине воздушный поток предоставляет работнику полный путь к выполнению задачи.
.--local -sd
указывает неверный путь. Есть ли у вас еще какое-нибудь решение? - person DevEx   schedule 11.04.2017