Я подозреваю, что эта проблема связана с распределением памяти. Когда я запускаю вывод с помощью TensorFlow или PyTorch, кажется, что он выделяет все доступные ресурсы, препятствуя правильной работе другой библиотеки. Хотя PyTorch предоставляет способ сброса ресурсов, TensorFlow, похоже, удерживает память графического процессора даже после сброса сеанса или памяти, в отличие от полного перезапуска приложения.
Итак, есть ли способ запустить TensorFlow и Выводы PyTorch в любом порядке столько раз, сколько необходимо, в приложении PyQt6, при этом одна библиотека не влияет и не мешает другой?
Вот решения, которые я пробовал:
Код: Выделить всё
import tensorflow as tf
gpus = tf.config.experimental.list_physical_devices('GPU')
for gpu in gpus:
tf.config.experimental.set_memory_growth(gpu, True)
from tensorflow.keras import backend as K
K.clear_session()
import os
os.environ['TF_FORCE_GPU_ALLOW_GROWTH'] = 'true'
import torch
torch.cuda.empty_cache()
Подробнее здесь: https://stackoverflow.com/questions/790 ... -applicati