Я пытаюсь преобразовать свой сценарий pyspark в исполняемый (.exe) файл с использованием Pyinstaller.
Сценарий работает нормально в Python, но после конвертации в EXE и выполнение его, я получаю следующую ошибку: < /p>
Я пытаюсь преобразовать свой сценарий pyspark в исполняемый (.exe) файл с использованием Pyinstaller. Сценарий работает нормально в Python, но после конвертации в EXE и выполнение его, я получаю следующую ошибку: < /p> [code] 'JavaPackage' object is not callable Traceback (most recent call last): File "job8.py", line 34, in .getOrCreate() File "pyspark\sql\session.py", line 559, in getOrCreate File "pyspark\sql\session.py", line 635, in __init__ TypeError: 'JavaPackage' object is not callable < /code> Вот мой фрагмент кода pyspark: < /p> import logging import traceback from pyspark.sql import SparkSession from pyspark.sql import functions as F import re import time from pyspark.sql.functions import to_date, col, to_timestamp, trim
except Exception as e: print(e) logging.error(f"Spark job failed: {e}") < /code> А вот команда Pyinstaller, которую я использовал для преобразования скрипта: < /p> pyinstaller --onefile Job8.py ^ --add-data "C:\BI\Program Files\Python\Python310\Lib\site-packages\pyspark\errors;pyspark\errors" [/code] Не могли бы вы помочь разрешить ошибку и преобразовать в файл exe
Я пытаюсь подключиться и пройти проверку подлинности в существующей разностной таблице в Azure Data Lake Storage Gen 2 с помощью API Python Delta-rs. Я нашел библиотеку Delta-rs из этого вопроса StackOverflow: Delta Lake независимо от Apache Spark?...
Использование примеров, приведенных здесь: Мне удалось подключиться к моему экземпляру Azure Data Lake и просмотреть структуру каталогов/файлов. Выполните несколько простых операций. Все хорошо.
Моя цель — загрузить данные в дельта-формате в озеро данных AWS S3.
Я должен отметить, что мне удалось загрузить файлы (паркет) в это озеро данных, а также я могу написать дельта-формат в моя локальная машина, но когда я пытаюсь записать...
Я могу прочитать дельта-таблицу, созданную в Amazon S3, с помощью автономного API, но не могу создать дельта-таблицу и вставить в нее данные. В приведенной ниже ссылке на озеро Дельта упоминается использование устройства чтения и записи Zappy,...
Я бы хотел настроить формат Delta Lake на AWS Glue и выполнить простую ETL с помощью df.write.format ( delta ). Mode ( Overwrite ). Сохранить. (s3) может ли кто-нибудь предоставить мне код копии-паста для этого?{
--datalake-formats : delta
}...