Как бороться с недопустимыми символами в именах столбцов при использовании автозагрузчика блоков данных для CSV?Python

Программы на Python
Ответить
Anonymous
 Как бороться с недопустимыми символами в именах столбцов при использовании автозагрузчика блоков данных для CSV?

Сообщение Anonymous »

Я пытаюсь настроить поток автозагрузчика блоков данных для чтения большого количества файлов CSV, однако получаю сообщение об ошибке
Found invalid character(s) among " ,;{}()\n\t=" in the column names of your schema. из-за того, что имена столбцов .csv содержат пробелы. В сообщении предлагается включить сопоставление столбцов, установив для свойства таблицы «delta.columnMapping.mode» значение «name», и отсылает меня на эту страницу документации, однако я не вижу способа реализовать это.
Это код для настройки потока:
stream = spark.readStream.format("cloudFiles")\
.option('cloudFiles.format', 'csv')\
.option('cloudFiles.schemaLocation', delta_loc)\
.option("rescuedDataColumn", "_rescued_data")\
.option('header', 'true')\
.option('delimiter', '|')\
.option('pathGlobFilter', f"*{file_code}*.csv")\
.load(data_path)


Подробнее здесь: https://stackoverflow.com/questions/733 ... ricks-auto
Ответить

Быстрый ответ

Изменение регистра текста: 
Смайлики
:) :( :oops: :roll: :wink: :muza: :clever: :sorry: :angel: :read: *x)
Ещё смайлики…
   
К этому ответу прикреплено по крайней мере одно вложение.

Если вы не хотите добавлять вложения, оставьте поля пустыми.

Максимально разрешённый размер вложения: 15 МБ.

Вернуться в «Python»