При обучении модели я столкнулся с следующей задачей: < /p>
RuntimeError: CUDA out of memory. Tried to allocate 304.00 MiB (GPU 0; 8.00 GiB total capacity; 142.76 MiB already allocated; 6.32 GiB free; 158.00 MiB reserved in total by PyTorch) If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF
Как мы можем видеть, ошибка возникает при попытке выделить 304 миба памяти, в то время как 6.32 Gib бесплатный! В чем проблема? Как я вижу, предложенная опция состоит в том, чтобы установить max_split_size_mb , чтобы избежать фрагментации. Поможет ли это и как это сделать правильно?torch==1.10.2+cu113
torchvision==0.11.3+cu113
torchaudio===0.10.2+cu113
Подробнее здесь: https://stackoverflow.com/questions/714 ... ree-memory
Pytorch RuntimeError: Cuda Out из памяти с огромным количеством свободной памяти ⇐ Python
-
- Похожие темы
- Ответы
- Просмотры
- Последнее сообщение
-
-
OpenTeLemetry-CPP тестовый приложение работает, но тот же код в Times Out Out Out
Anonymous » » в форуме C++ - 0 Ответы
- 3 Просмотры
-
Последнее сообщение Anonymous
-
-
-
Загрузите лист Excel с огромным количеством записей в базу данных MySql в виде JSON.
Anonymous » » в форуме JAVA - 0 Ответы
- 20 Просмотры
-
Последнее сообщение Anonymous
-