Как оптимизировать память при запросе и сохранении большого объема данных в S3Python

Программы на Python
Ответить Пред. темаСлед. тема
Anonymous
 Как оптимизировать память при запросе и сохранении большого объема данных в S3

Сообщение Anonymous »

Я пытаюсь отправить запрос Athena с помощью boto3, получить значение из фрейма данных, а затем сохранить фрейм данных в S3.

Код: Выделить всё

from io import StringIO
import boto3
import awswrangler as wr

region = ""
access_key = ""
secret_key = ""
database = ""

s3 = boto3.resource(service_name='s3',
region_name=region,
aws_access_key_id = access_key,
aws_secret_access_key = secret_key)

sql = "SELECT * FROM tbl"
boto3.setup_default_session(region_name=region,aws_access_key_id=access_key, aws_secret_access_key=secret_key)
df = wr.athena.read_sql_query(sql=sql, database=database)
values = df['value'].unique() # get list of values from dataframe
csv_buffer = StringIO()
df.to_csv(csv_buffer, index=False)
s3.Object(s3_bucket_name, "s3://path/to/folder/values.csv").put(Body=csv_buffer.getvalue())
Какой был бы более эффективный способ прочитать фрейм данных и сохранить его в S3 для больших наборов данных? Я уже пробовал оптимизировать с помощью awswrangler вместо pd.read_csv(), что сначала помогло, но когда размер кадра данных превышает 700 МБ, это вызывает проблемы с памятью.

Подробнее здесь: https://stackoverflow.com/questions/792 ... rame-to-s3
Реклама
Ответить Пред. темаСлед. тема

Быстрый ответ

Изменение регистра текста: 
Смайлики
:) :( :oops: :roll: :wink: :muza: :clever: :sorry: :angel: :read: *x)
Ещё смайлики…
   
К этому ответу прикреплено по крайней мере одно вложение.

Если вы не хотите добавлять вложения, оставьте поля пустыми.

Максимально разрешённый размер вложения: 15 МБ.

  • Похожие темы
    Ответы
    Просмотры
    Последнее сообщение
  • Проблемы с загрузкой большого объема данных из базы данных SQL Server.
    Anonymous » » в форуме Python
    0 Ответы
    14 Просмотры
    Последнее сообщение Anonymous
  • Python: периодическая запись при чтении большого объема данных
    Anonymous » » в форуме Python
    0 Ответы
    16 Просмотры
    Последнее сообщение Anonymous
  • Поиск лучшего способа передачи большого объема данных за короткое время между nodejs и C#.
    Гость » » в форуме C#
    0 Ответы
    53 Просмотры
    Последнее сообщение Гость
  • Python и Pandas для записи большого объема данных
    Anonymous » » в форуме Python
    0 Ответы
    10 Просмотры
    Последнее сообщение Anonymous
  • Python и Pandas для записи большого объема данных
    Anonymous » » в форуме Python
    0 Ответы
    17 Просмотры
    Последнее сообщение Anonymous

Вернуться в «Python»