Как избежать «CUDA нехватки памяти» в PyTorch ⇐ Python
Как избежать «CUDA нехватки памяти» в PyTorch
Я думаю, это довольно распространенное сообщение для пользователей PyTorch с нехваткой памяти графического процессора:
RuntimeError: CUDA не хватает памяти. Попытка выделить X MiB (GPU X; общая емкость X GiB; X GiB уже выделено; X MiB свободно; X кэшировано) Я пытался обработать изображение, загружая каждый слой в графический процессор, а затем загружая его обратно:
для m в self.children(): м.куда() х = м (х) м.процессор() torch.cuda.empty_cache() Но, похоже, это не очень эффективно. Мне интересно, есть ли какие-нибудь советы и рекомендации по обучению больших моделей глубокого обучения при использовании небольшого количества памяти графического процессора.
Я думаю, это довольно распространенное сообщение для пользователей PyTorch с нехваткой памяти графического процессора:
RuntimeError: CUDA не хватает памяти. Попытка выделить X MiB (GPU X; общая емкость X GiB; X GiB уже выделено; X MiB свободно; X кэшировано) Я пытался обработать изображение, загружая каждый слой в графический процессор, а затем загружая его обратно:
для m в self.children(): м.куда() х = м (х) м.процессор() torch.cuda.empty_cache() Но, похоже, это не очень эффективно. Мне интересно, есть ли какие-нибудь советы и рекомендации по обучению больших моделей глубокого обучения при использовании небольшого количества памяти графического процессора.
-
- Похожие темы
- Ответы
- Просмотры
- Последнее сообщение
-
-
Pytorch странным образом выбрасывает ошибку нехватки памяти графического процессора
Anonymous » » в форуме Python - 0 Ответы
- 59 Просмотры
-
Последнее сообщение Anonymous
-
-
-
Преобразование SQL Reader в SequentialAccess, чтобы избежать ошибок нехватки памяти
Anonymous » » в форуме C# - 0 Ответы
- 34 Просмотры
-
Последнее сообщение Anonymous
-
-
-
Преобразование SqlDataReader в SequentialAccess, чтобы избежать ошибок нехватки памяти?
Anonymous » » в форуме C# - 0 Ответы
- 32 Просмотры
-
Последнее сообщение Anonymous
-