Я работаю в среде, в которой вычислительные ресурсы являются общими, т. е. у нас есть несколько серверных компьютеров, каждый из которых оснащен несколькими графическими процессорами Nvidia Titan X.
Для моделей малого и среднего размера 12 ГБ Titan X обычно достаточно для одновременного обучения 2–3 человек на одном графическом процессоре. Если модели настолько малы, что одна модель не может в полной мере использовать все преимущества всех вычислительных блоков графического процессора, это может фактически привести к ускорению по сравнению с запуском одного процесса обучения за другим. Даже в тех случаях, когда одновременный доступ к графическому процессору действительно замедляет время индивидуального обучения, все равно приятно иметь возможность одновременного обучения нескольких пользователей на графическом процессоре.
Проблема TensorFlow заключается в том, что по умолчанию он выделяет полный объем доступной памяти графического процессора при запуске. Даже для небольшой двухслойной нейронной сети я вижу, что все 12 ГБ памяти графического процессора израсходованы.
Есть ли способ заставить TensorFlow выделять только, скажем, 4 ГБ памяти графического процессора, если известно, что этого достаточно для данной модели?
Подробнее здесь: https://stackoverflow.com/questions/341 ... gpu-memory
Как я могу запретить TensorFlow выделять всю память графического процессора? ⇐ Python
Программы на Python
1767149571
Anonymous
Я работаю в среде, в которой вычислительные ресурсы являются общими, т. е. у нас есть несколько серверных компьютеров, каждый из которых оснащен несколькими графическими процессорами Nvidia Titan X.
Для моделей малого и среднего размера 12 ГБ Titan X обычно достаточно для одновременного обучения 2–3 человек на одном графическом процессоре. Если модели настолько малы, что одна модель не может в полной мере использовать все преимущества всех вычислительных блоков графического процессора, это может фактически привести к ускорению по сравнению с запуском одного процесса обучения за другим. Даже в тех случаях, когда одновременный доступ к графическому процессору действительно замедляет время индивидуального обучения, все равно приятно иметь возможность одновременного обучения нескольких пользователей на графическом процессоре.
Проблема TensorFlow заключается в том, что по умолчанию он выделяет полный объем доступной памяти графического процессора при запуске. Даже для небольшой двухслойной нейронной сети я вижу, что все 12 ГБ памяти графического процессора израсходованы.
Есть ли способ заставить TensorFlow выделять только, скажем, 4 ГБ памяти графического процессора, если известно, что этого достаточно для данной модели?
Подробнее здесь: [url]https://stackoverflow.com/questions/34199233/how-can-i-prevent-tensorflow-from-allocating-the-totality-of-a-gpu-memory[/url]
Ответить
1 сообщение
• Страница 1 из 1
Перейти
- Кемерово-IT
- ↳ Javascript
- ↳ C#
- ↳ JAVA
- ↳ Elasticsearch aggregation
- ↳ Python
- ↳ Php
- ↳ Android
- ↳ Html
- ↳ Jquery
- ↳ C++
- ↳ IOS
- ↳ CSS
- ↳ Excel
- ↳ Linux
- ↳ Apache
- ↳ MySql
- Детский мир
- Для души
- ↳ Музыкальные инструменты даром
- ↳ Печатная продукция даром
- Внешняя красота и здоровье
- ↳ Одежда и обувь для взрослых даром
- ↳ Товары для здоровья
- ↳ Физкультура и спорт
- Техника - даром!
- ↳ Автомобилистам
- ↳ Компьютерная техника
- ↳ Плиты: газовые и электрические
- ↳ Холодильники
- ↳ Стиральные машины
- ↳ Телевизоры
- ↳ Телефоны, смартфоны, плашеты
- ↳ Швейные машинки
- ↳ Прочая электроника и техника
- ↳ Фототехника
- Ремонт и интерьер
- ↳ Стройматериалы, инструмент
- ↳ Мебель и предметы интерьера даром
- ↳ Cантехника
- Другие темы
- ↳ Разное даром
- ↳ Давай меняться!
- ↳ Отдам\возьму за копеечку
- ↳ Работа и подработка в Кемерове
- ↳ Давай с тобой поговорим...
Мобильная версия