Почему чтение больших объемов данных из базы данных SQLite с помощью SQLAlchemy занимает больше времени, чем с помощью pPython

Программы на Python
Ответить Пред. темаСлед. тема
Anonymous
 Почему чтение больших объемов данных из базы данных SQLite с помощью SQLAlchemy занимает больше времени, чем с помощью p

Сообщение Anonymous »

Я хочу прочитать миллионы записей из локально размещенной базы данных в память на Python. Я использую SQLAlchemy с SQLite. Я индексирую, используя строку даты и времени и символ, и все запросы используют только эти индексы. Я рад пожертвовать скоростью записи ради скорости чтения. Мне бы хотелось, чтобы время чтения было хотя бы в некоторой степени сопоставимо с CSV.
Использование запроса и последующая выборка заняли у меня 10 минут для 10 миллионов строк с 10 столбцами. Используя pd.readsql, это заняло одну минуту. Чтение тех же данных из CSV заняло 18 секунд.

Подробнее здесь: https://stackoverflow.com/questions/793 ... lchemy-tak
Реклама
Ответить Пред. темаСлед. тема

Быстрый ответ

Изменение регистра текста: 
Смайлики
:) :( :oops: :roll: :wink: :muza: :clever: :sorry: :angel: :read: *x)
Ещё смайлики…
   
К этому ответу прикреплено по крайней мере одно вложение.

Если вы не хотите добавлять вложения, оставьте поля пустыми.

Максимально разрешённый размер вложения: 15 МБ.

  • Похожие темы
    Ответы
    Просмотры
    Последнее сообщение

Вернуться в «Python»