Как я могу эффективно обрабатывать большие наборы данных в Python, используя Pandas для анализа данных в реальном временPython

Программы на Python
Ответить Пред. темаСлед. тема
Anonymous
 Как я могу эффективно обрабатывать большие наборы данных в Python, используя Pandas для анализа данных в реальном времен

Сообщение Anonymous »

Я работаю над панелью анализа данных в реальном времени, которая обрабатывает большие файлы CSV (500 МБ+), и в настоящее время я использую панды для манипулирования данными. Тем не менее, производительность становится проблемой, когда набор данных растет. Я пытался оптимизировать с помощью chuntsize и dtypes, но это все еще медленно для некоторых операций, таких как Groupby и фильтрация.import pandas as pd

chunks = pd.read_csv('data.csv', chunksize=100000)

for chunk in chunks:
filtered = chunk[chunk['status'] == 'active']
result = filtered.groupby('category')['sales'].sum()
print(result)
< /code>
Я пробовал: < /p>

Снижение использования памяти путем явного настроения dtype < /li>
chunksize < /li>
Multiprocessing (добавляет сложности) < /li>

< /psure?>

Подробнее здесь: https://stackoverflow.com/questions/796 ... -real-time
Реклама
Ответить Пред. темаСлед. тема

Быстрый ответ

Изменение регистра текста: 
Смайлики
:) :( :oops: :roll: :wink: :muza: :clever: :sorry: :angel: :read: *x)
Ещё смайлики…
   
К этому ответу прикреплено по крайней мере одно вложение.

Если вы не хотите добавлять вложения, оставьте поля пустыми.

Максимально разрешённый размер вложения: 15 МБ.

  • Похожие темы
    Ответы
    Просмотры
    Последнее сообщение

Вернуться в «Python»