Как запустить задачу, если предыдущая не удалась в Apache AirflowPython

Программы на Python
Ответить
Anonymous
 Как запустить задачу, если предыдущая не удалась в Apache Airflow

Сообщение Anonymous »

Мне нужно сделать следующее:

Проверить, включен ли сервер, если да, то я проверяю, включен ли кластер Spark на этом сервере, если он не работает, я пытаюсь запустить его, если он уже включен, я перехожу к выполнению задания Spark.

Я думаю о создании задачи, чтобы проверить, работает ли кластер Spark (возможно, пытаюсь запустить простое задание Spark). В случае сбоя я бы запустил задачу «Запустить кластер Spark».

Я использую Airflow, но не нашел способа запустить задачу в случае сбоя предыдущей. Кроме того, мне нужно будет проверить предыдущую задачу на случай успеха, чтобы она перешла к задаче задания Spark и пропустила задачу «Запустить кластер Spark».

Если бы вы могли предоставить несколько примеров, было бы здорово. Я пробовал использовать триггер_rule и оператор ветвления, но пока ничего не получилось. Возможно, потому, что в сети слишком мало примеров кода.

Спасибо
Ответить

Быстрый ответ

Изменение регистра текста: 
Смайлики
:) :( :oops: :roll: :wink: :muza: :clever: :sorry: :angel: :read: *x)
Ещё смайлики…
   
К этому ответу прикреплено по крайней мере одно вложение.

Если вы не хотите добавлять вложения, оставьте поля пустыми.

Максимально разрешённый размер вложения: 15 МБ.

Вернуться в «Python»