Я преобразую данные в разных записных книжках Databricks (чтение, преобразование и запись в / из ADLS). Я подключил эти записные книжки к конвейеру DataFactory:
Notebook 1 --> Notebook 2 --> Notebook 3 --> Notebook
Затем я создал соединение с моими Databricks из DataFactory и добавил его в свои действия с записной книжкой. Я хотел бы запускать кластер Databricks всякий раз, когда запускается конвейер. В целом все это работает нормально. Но Databricks запускает кластер заданий для каждого действия с записной книжкой, которое занимает слишком много времени и кажется мне ненужным.
Можно ли запустить кластер в начале конвейера, а затем выключить его после завершения работы всех записных книжек? Или есть какие-то аргументы в пользу того, что для каждого вида деятельности хорошо иметь кластер заданий?