Для приложения глубокого обучения, которое я создаю, у меня есть набор данных, содержащий около 50 тысяч изображений в оттенках серого, размером от 3002 тысяч до 30010 тысяч пикселей. Загрузка всех этих данных в память невозможна, поэтому я ищу правильный способ обработки чтения случайных пакетов данных. Еще одна сложность заключается в том, что мне нужно знать ширину каждого изображения перед построением модели глубокого обучения, чтобы определить сегменты разных размеров в данных (например: [2k-4k, 4k-6k, 6k-8k, 8k). -10 тыс.].
В настоящее время я работаю с меньшим набором данных и просто загружаю каждое изображение из файла png, группирую их по размеру и начинаю учиться. Когда я хочу масштабировать, это. больше никогда возможно.
Для обучения модели каждый пакет данных должен (в идеале) быть полностью случайным из случайного сегмента. Наивный способ сделать это — заранее сохранить размеры изображений. и просто загружать каждый случайный пакет, когда это необходимо. Однако это приведет к большой дополнительной загрузке данных и не очень эффективному управлению памятью.
Как эффективно решить эту проблему?
Подробнее здесь: https://stackoverflow.com/questions/372 ... image-data
Правильный способ загрузки больших объемов данных изображения ⇐ Python
Программы на Python
-
Anonymous
1733312099
Anonymous
Для приложения глубокого обучения, которое я создаю, у меня есть набор данных, содержащий около 50 тысяч изображений в оттенках серого, размером от 3002 тысяч до 30010 тысяч пикселей. Загрузка всех этих данных в память невозможна, поэтому я ищу правильный способ обработки чтения случайных пакетов данных. Еще одна сложность заключается в том, что мне нужно знать ширину каждого изображения перед построением модели глубокого обучения, чтобы определить сегменты разных размеров в данных (например: [2k-4k, 4k-6k, 6k-8k, 8k). -10 тыс.].
В настоящее время я работаю с меньшим набором данных и просто загружаю каждое изображение из файла png, группирую их по размеру и начинаю учиться. Когда я хочу масштабировать, это. больше никогда возможно.
Для обучения модели каждый пакет данных должен (в идеале) быть полностью случайным из случайного сегмента. Наивный способ сделать это — заранее сохранить размеры изображений. и просто загружать каждый случайный пакет, когда это необходимо. Однако это приведет к большой дополнительной загрузке данных и не очень эффективному управлению памятью.
Как эффективно решить эту проблему?
Подробнее здесь: [url]https://stackoverflow.com/questions/37227938/proper-way-of-loading-large-amounts-of-image-data[/url]
Ответить
1 сообщение
• Страница 1 из 1
Перейти
- Кемерово-IT
- ↳ Javascript
- ↳ C#
- ↳ JAVA
- ↳ Elasticsearch aggregation
- ↳ Python
- ↳ Php
- ↳ Android
- ↳ Html
- ↳ Jquery
- ↳ C++
- ↳ IOS
- ↳ CSS
- ↳ Excel
- ↳ Linux
- ↳ Apache
- ↳ MySql
- Детский мир
- Для души
- ↳ Музыкальные инструменты даром
- ↳ Печатная продукция даром
- Внешняя красота и здоровье
- ↳ Одежда и обувь для взрослых даром
- ↳ Товары для здоровья
- ↳ Физкультура и спорт
- Техника - даром!
- ↳ Автомобилистам
- ↳ Компьютерная техника
- ↳ Плиты: газовые и электрические
- ↳ Холодильники
- ↳ Стиральные машины
- ↳ Телевизоры
- ↳ Телефоны, смартфоны, плашеты
- ↳ Швейные машинки
- ↳ Прочая электроника и техника
- ↳ Фототехника
- Ремонт и интерьер
- ↳ Стройматериалы, инструмент
- ↳ Мебель и предметы интерьера даром
- ↳ Cантехника
- Другие темы
- ↳ Разное даром
- ↳ Давай меняться!
- ↳ Отдам\возьму за копеечку
- ↳ Работа и подработка в Кемерове
- ↳ Давай с тобой поговорим...
Мобильная версия