Код: Выделить всё
df = (
spark
.read
.schema(spark.table(f'{CATALOG_NAME}.{BRONZE_SCHEMA}.{SLA_TARGET}').schema)
.parquet(RAW_EXTERNAL_LOCATION_PATH + f"/{SLA_TARGET}/{SLA_TARGET}.parquet")
)
Код: Выделить всё
SchemaColumnConvertNotSupportedException: column: [Year], physicalType: INT64, logicalType: int
Я не думаю, что нам нужно делать VectorizedReader ложным, потому что, согласно этому блогу это требуется для десятичных типов, а не для других. Но даже если я сделаю spark.conf.set("spark.sql.parquet.enableVectorizedReader","false"), он не сможет правильно прочитать файл паркета и выдаст ошибку - FileReadException: ошибка при чтении файла abfss:REDACTED_LOCAL_PART@satrinitydevgfsst01.dfs.core.windows.net/gfs_reporting_raw/sla_target/sla_target.parquet. Возможная причина: невозможно переоборудовать паркетную колонну. Вызвано: ParquetDecodingException: невозможно прочитать значение 1 в блоке 0 в файле abfss:/...
Подробнее здесь: https://stackoverflow.com/questions/791 ... ng-parquet
Мобильная версия