Как написать большие паркетные файлы (20 ГБ+) в SQLite на партиях, используя поляры?Python

Программы на Python
Ответить Пред. темаСлед. тема
Anonymous
 Как написать большие паркетные файлы (20 ГБ+) в SQLite на партиях, используя поляры?

Сообщение Anonymous »

У меня есть следующий код Polars, который считывает паркетный файл и записывает его в базу данных SQLite: < /p>
data = pl.scan_parquet(get_dataset_path()).collect()
_ = data.write_database(
table_name="my_table",
connection="sqlite:///my_data.db",
if_table_exists="replace",
)
< /code>
Это прекрасно работает для более мелких наборов данных, но при работе с действительно большими паркетными файлами (20 ГБ+), он запускается из памяти. < /p>
Я не хочу переходить на Postgresql Обработка их партиями или использованием потоковой передачи?
Заранее!

Подробнее здесь: https://stackoverflow.com/questions/795 ... ing-polars
Реклама
Ответить Пред. темаСлед. тема

Быстрый ответ

Изменение регистра текста: 
Смайлики
:) :( :oops: :roll: :wink: :muza: :clever: :sorry: :angel: :read: *x)
Ещё смайлики…
   
К этому ответу прикреплено по крайней мере одно вложение.

Если вы не хотите добавлять вложения, оставьте поля пустыми.

Максимально разрешённый размер вложения: 15 МБ.

  • Похожие темы
    Ответы
    Просмотры
    Последнее сообщение

Вернуться в «Python»