Pytorch RuntimeError: Cuda Out из памяти с огромным количеством свободной памятиPython

Программы на Python
Ответить Пред. темаСлед. тема
Anonymous
 Pytorch RuntimeError: Cuda Out из памяти с огромным количеством свободной памяти

Сообщение Anonymous »

При обучении модели я столкнулся с следующей задачей: < /p>
RuntimeError: CUDA out of memory. Tried to allocate 304.00 MiB (GPU 0; 8.00 GiB total capacity; 142.76 MiB already allocated; 6.32 GiB free; 158.00 MiB reserved in total by PyTorch) If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF
Как мы можем видеть, ошибка возникает при попытке выделить 304 миба памяти, в то время как 6.32 Gib бесплатный! В чем проблема? Как я вижу, предложенная опция состоит в том, чтобы установить max_split_size_mb , чтобы избежать фрагментации. Поможет ли это и как это сделать правильно?torch==1.10.2+cu113
torchvision==0.11.3+cu113
torchaudio===0.10.2+cu113


Подробнее здесь: https://stackoverflow.com/questions/714 ... ree-memory
Реклама
Ответить Пред. темаСлед. тема

Быстрый ответ

Изменение регистра текста: 
Смайлики
:) :( :oops: :roll: :wink: :muza: :clever: :sorry: :angel: :read: *x)
Ещё смайлики…
   
К этому ответу прикреплено по крайней мере одно вложение.

Если вы не хотите добавлять вложения, оставьте поля пустыми.

Максимально разрешённый размер вложения: 15 МБ.

  • Похожие темы
    Ответы
    Просмотры
    Последнее сообщение

Вернуться в «Python»