В настоящее время я тестирую рабочий процесс Spark, написанный на PySpark и работающий в среде Databricks. Все справочные таблицы являются статическими, и в эти таблицы не вносятся никакие обновления. Иногда при выполнении задания возникают сбои, а иногда задание выполняется успешно без каких-либо сбоев. Я уверен, что перекоса нет и памяти у каждого исполнителя достаточно. Вот мои вопросы:
В настоящее время я тестирую рабочий процесс Spark, написанный на PySpark и работающий в среде Databricks. Все справочные таблицы являются статическими, и в эти таблицы не вносятся никакие обновления. Иногда при выполнении задания возникают сбои, а иногда задание выполняется успешно без каких-либо сбоев. Я уверен, что перекоса нет и памяти у каждого исполнителя достаточно. [b]Вот мои вопросы:[/b] [list] [*]Почему задачи периодически не выполняются? [*]Как проверить журналы сбоев задач в Databricks? [*]Как избежать выполнения задач неудачи? [/list]