У меня есть простая группа обеспечения доступности баз данных с задачей ([code]start_job[/code]) that starts a job via REST API. A sensor task ([code]wait_for_job[/code]) waits for the job to complete. If the job doesn't complete within the configured sensor timeout, the job failed and I want both the [code]start_job[/code] and the [code]wait_for_job[/code] task to be re-tried. I managed it to retry the [code]start_job[/code] task using the [code]on_failure_callback[/code] of the [code]wait_for_job[/code] sensor task. But after its execution, the [code]wait_for_job[/code] task is not triggered. The last message of the [code]start_job[/code] task is "INFO - 0 downstream tasks scheduled from follow-on schedule check". I expected that 1 downstream task is found (as in the first run of the [code]start_job[/code] task). Here is a minimal DAG without the REST API stuff: [code]import time import logging from datetime import timedelta from typing import Any, Dict, List, Optional
import pendulum from sqlalchemy.orm.session import Session
from airflow.decorators import dag, task from airflow.sensors.base import PokeReturnValue from airflow.models import taskinstance from airflow.utils.state import State from airflow.utils.db import provide_session from airflow.utils.session import NEW_SESSION, provide_session
task_instances: List[taskinstance.TaskInstance] = context["dag_run"].get_task_instances() logger.info(f"task_instances: {task_instances}") for ti in task_instances: logger.info(f" ti.task_id: {ti.task_id}") if ti.task_id == task_id: return ti
Я работаю на мультитенантной платформе конвейера данных. Итак, на данный момент у нас около 5 арендаторов. В качестве инструмента оркестрации мы используем AWS MWAA
(Apache Airflow). Каждый арендатор имеет отдельный DAG и запускается...
Я работаю на мультитенантной платформе конвейера данных. Итак, на данный момент у нас около 5 арендаторов. В качестве инструмента оркестрации мы используем AWS MWAA
(Apache Airflow). Каждый арендатор имеет отдельный DAG и запускается...
Error: An error occurred while calling z:org.apache.spark.api.python.PythonRDD.collectAndServe.: org.apache.spark.SparkException: Job aborted due to stage failure: Task 16 in stage 1.0 failed 1...
Запуск php-сервера с использованием artisan-сервиса иногда приводил к сбоям.
2024-12-07 11:33:22 /build/assets/app-CrG75o6_.js ................ ~ 3.80ms