Pyspark toPandas() Ошибка наносекундной метки времени за пределамиPython

Программы на Python
Ответить
Anonymous
 Pyspark toPandas() Ошибка наносекундной метки времени за пределами

Сообщение Anonymous »

Я пытаюсь преобразовать DataFrame Spark в Pandas. Однако выдает следующую ошибку:

Код: Выделить всё

OutOfBoundsDatetime: Out of bounds nanosecond timestamp:
Есть ли обходной путь?
Это работает, если я удаляю все столбцы с временными метками, но я хотел бы перенести всю таблицу в Pandas.
Я никогда не сталкивался с ошибкой при переносе Spark DataFrame в Pandas.
Это достаточно большая таблица, содержащая несколько столбцов с временными метками. Некоторые столбцы имеют формат ГГГГ-ММ-ДД, а некоторые – столбцы типа ГГГГ-ММ-ДД 00:00:00.
Неизвестное количество столбцов содержит несуществующие переменные года.
Ниже приведен пример.

Код: Выделить всё

data = {
"ID": ["AB", "CD", "DE", "EF"],
"year": [2016, 2017, 2018, 2018],
"time_var_1": [
"3924-01-04 00:00:00",
"4004-12-12 12:38:00",
"2018-10-02 01:32:23",
"2018-04-05 00:00:00",
],
}

df = pd.DataFrame(data)

sdf = spark.createDataFrame(df)

sdf = sdf.withColumn("time_var_1", spark_fns.to_timestamp(spark_fns.col("time_var_1")))

Я не очень хорошо знаком с PySpark, поэтому не уверен, существует ли эквивалент error='coerce' при переносе таблицы из Spark DataFrame в Pandas.

Подробнее здесь: https://stackoverflow.com/questions/663 ... tamp-error
Ответить

Быстрый ответ

Изменение регистра текста: 
Смайлики
:) :( :oops: :roll: :wink: :muza: :clever: :sorry: :angel: :read: *x)
Ещё смайлики…
   
К этому ответу прикреплено по крайней мере одно вложение.

Если вы не хотите добавлять вложения, оставьте поля пустыми.

Максимально разрешённый размер вложения: 15 МБ.

Вернуться в «Python»