Код, запускаемый на версии процессора tensorflow, не будет работать на версии графического процессора tensorflow, пробуя ⇐ Python
Код, запускаемый на версии процессора tensorflow, не будет работать на версии графического процессора tensorflow, пробуя
Сейчас я работаю над выпускным экзаменом CQF по глубокому обучению.
Я построил модель cnn-bilstm-attention ранее по ходу курса. Когда я добавлял в модель все больше и больше функций, процесс обучения становился все медленнее и медленнее. 4 функции снизят мое время до 10 секунд за эпоху. Итак, я переделал свои окна и все такое. Установлен новейший miniconda3 с Python 3.9.16, tensorflow-gpu и keras ==2.10, cuda == 11.5 с cudnn, все работает с кодами глубокого обучения.
Скрипт cnn-bilstm-attention работал на tensorflow==2.15, но медленно. Когда я перешел на tensorflow-gpu==2.10, это не сработало. Остановился на Эпохе 1, ничего не появляется, ни ошибок, ни предупреждений, ничего. Загруженность памяти графического процессора падает до нормального уровня через 10–15 секунд.
Тем не менее, модель автоэнкодера без проблем работает как с тензорным потоком, так и с версией процессора и графического процессора, набор обучающих данных для автоэнкодера даже утроен, чем у меня в модели cnn-bilstm-attention. Просто эта модель cnn-lstm-attention не будет работать на tensorflow-gpu==2.10. Я провел небольшое исследование lstm и cudnnlstm, переключился, ничего не изменилось, все еще застрял на эпохе 1.
Кто-нибудь знает, почему это не работает? Я не специалист по CS, Python — единственный язык, с которым я знаком. Полагаю, любые подсказки будут полезны. Большое спасибо.
Сейчас я работаю над выпускным экзаменом CQF по глубокому обучению.
Я построил модель cnn-bilstm-attention ранее по ходу курса. Когда я добавлял в модель все больше и больше функций, процесс обучения становился все медленнее и медленнее. 4 функции снизят мое время до 10 секунд за эпоху. Итак, я переделал свои окна и все такое. Установлен новейший miniconda3 с Python 3.9.16, tensorflow-gpu и keras ==2.10, cuda == 11.5 с cudnn, все работает с кодами глубокого обучения.
Скрипт cnn-bilstm-attention работал на tensorflow==2.15, но медленно. Когда я перешел на tensorflow-gpu==2.10, это не сработало. Остановился на Эпохе 1, ничего не появляется, ни ошибок, ни предупреждений, ничего. Загруженность памяти графического процессора падает до нормального уровня через 10–15 секунд.
Тем не менее, модель автоэнкодера без проблем работает как с тензорным потоком, так и с версией процессора и графического процессора, набор обучающих данных для автоэнкодера даже утроен, чем у меня в модели cnn-bilstm-attention. Просто эта модель cnn-lstm-attention не будет работать на tensorflow-gpu==2.10. Я провел небольшое исследование lstm и cudnnlstm, переключился, ничего не изменилось, все еще застрял на эпохе 1.
Кто-нибудь знает, почему это не работает? Я не специалист по CS, Python — единственный язык, с которым я знаком. Полагаю, любые подсказки будут полезны. Большое спасибо.
-
- Похожие темы
- Ответы
- Просмотры
- Последнее сообщение
-
-
Tensorflow потребляет память как графического процессора, так и процессора.
Anonymous » » в форуме Python - 0 Ответы
- 31 Просмотры
-
Последнее сообщение Anonymous
-