Я пытался выполнить выводы нейронной сети, используя TensorFlow и PyTorch в одной и той же среде Python внутри приложения PyQt6. Моя цель — сделать так, чтобы обе библиотеки беспрепятственно делали выводы внутри приложения. Однако я столкнулся с проблемой, когда выполнение вывода с помощью TensorFlow приводит к тому, что выводы PyTorch занимают вечность, и наоборот. Кажется, какую бы библиотеку я ни использовал первой, другая перестает работать правильно.
Я подозреваю, что эта проблема связана с распределением памяти. Когда я запускаю вывод с помощью TensorFlow или PyTorch, кажется, что он выделяет все доступные ресурсы, препятствуя правильной работе другой библиотеки. Хотя PyTorch предоставляет способ сброса ресурсов, TensorFlow, похоже, удерживает память графического процессора даже после сброса сеанса или памяти, в отличие от полного перезапуска приложения.
Итак, есть ли способ запустить TensorFlow и Выводы PyTorch в любом порядке столько раз, сколько необходимо, в приложении PyQt6, при этом одна библиотека не влияет и не мешает другой?
Вот решения, которые я пробовал:импортировать тензорный поток как tf
gpus = tf.config.experimental.list_physical_devices('GPU')
для графического процессора в gpus:
tf. config.experimental.set_memory_growth(gpu, True)
из бэкенда tensorflow.keras импортировать как K
K.clear_session()импортировать ОС
os.environ['TF_FORCE_GPU_ALLOW_GROWTH'] = 'true'
импортировать факел
torch.cuda.empty_cache()
Несмотря на все усилия, проблема остается.
Подробнее здесь: https://stackoverflow.com/questions/790 ... -applicati
Использование тензорного потока и PyTorch В одной среде Python Внутри приложения pyqt6 ⇐ Python
-
- Похожие темы
- Ответы
- Просмотры
- Последнее сообщение
-
-
Использование тензорного потока и PyTorch В одной среде Python Внутри приложения pyqt6
Anonymous » » в форуме Python - 0 Ответы
- 9 Просмотры
-
Последнее сообщение Anonymous
-
-
-
Использование тензорного потока и PyTorch В одной среде Python Внутри приложения pyqt6
Anonymous » » в форуме Python - 0 Ответы
- 6 Просмотры
-
Последнее сообщение Anonymous
-