У меня около 100 000 файлов JSON с такой структурой:
{'images': [],
'annotations': [],
'videos': []}
Размер каждого JSON различается, но в среднем он составляет около 2 МБ. У меня много оперативной памяти (488 ГБ), но, похоже, в память умещается только около 70% из них.
Каким будет самый быстрый способ в Python объединить их в один JSON? файл (с теми же тремя ключами, где списки объединены в один большой список)?
Я рассматривал возможность перебрать их все 3 раза (один цикл для каждый ключ) и добавление в файл, но это было бы очень медленный. Я не уверен, существует ли лучший способ.
Вот как я попытался загрузить их все одновременно (это замедляет работу, а затем завершается сбоем):
from glob import glob
import json
from tqdm import tqdm
full = {
'videos': [],
'images': [],
'annotations': []
}
for fp in tqdm(glob('coco_parts/*.json')):
with open(fp, 'r') as f:
single = json.load(f)
full['videos'] += single['videos']
full['images'] += single['images']
full['annotations'] += single['annotations']
Подробнее здесь: https://stackoverflow.com/questions/639 ... -in-memory
Самый быстрый способ объединить множество файлов JSON, которые не помещаются в памяти. ⇐ Python
Программы на Python
1735368119
Anonymous
У меня около 100 000 файлов JSON с такой структурой:
{'images': [],
'annotations': [],
'videos': []}
Размер каждого JSON различается, но в среднем он составляет около 2 МБ. У меня много оперативной памяти (488 ГБ), но, похоже, в память умещается только около 70% из них.
Каким будет самый быстрый способ в Python объединить их в один JSON? файл (с теми же тремя ключами, где списки объединены в один большой список)?
Я рассматривал возможность перебрать их все 3 раза (один цикл для каждый ключ) и добавление в файл, но это было бы очень медленный. Я не уверен, существует ли лучший способ.
Вот как я попытался загрузить их все одновременно (это замедляет работу, а затем завершается сбоем):
from glob import glob
import json
from tqdm import tqdm
full = {
'videos': [],
'images': [],
'annotations': []
}
for fp in tqdm(glob('coco_parts/*.json')):
with open(fp, 'r') as f:
single = json.load(f)
full['videos'] += single['videos']
full['images'] += single['images']
full['annotations'] += single['annotations']
Подробнее здесь: [url]https://stackoverflow.com/questions/63971691/fastest-way-to-combine-many-json-files-that-dont-fit-in-memory[/url]
Ответить
1 сообщение
• Страница 1 из 1
Перейти
- Кемерово-IT
- ↳ Javascript
- ↳ C#
- ↳ JAVA
- ↳ Elasticsearch aggregation
- ↳ Python
- ↳ Php
- ↳ Android
- ↳ Html
- ↳ Jquery
- ↳ C++
- ↳ IOS
- ↳ CSS
- ↳ Excel
- ↳ Linux
- ↳ Apache
- ↳ MySql
- Детский мир
- Для души
- ↳ Музыкальные инструменты даром
- ↳ Печатная продукция даром
- Внешняя красота и здоровье
- ↳ Одежда и обувь для взрослых даром
- ↳ Товары для здоровья
- ↳ Физкультура и спорт
- Техника - даром!
- ↳ Автомобилистам
- ↳ Компьютерная техника
- ↳ Плиты: газовые и электрические
- ↳ Холодильники
- ↳ Стиральные машины
- ↳ Телевизоры
- ↳ Телефоны, смартфоны, плашеты
- ↳ Швейные машинки
- ↳ Прочая электроника и техника
- ↳ Фототехника
- Ремонт и интерьер
- ↳ Стройматериалы, инструмент
- ↳ Мебель и предметы интерьера даром
- ↳ Cантехника
- Другие темы
- ↳ Разное даром
- ↳ Давай меняться!
- ↳ Отдам\возьму за копеечку
- ↳ Работа и подработка в Кемерове
- ↳ Давай с тобой поговорим...
Мобильная версия