Я скопировал простой пример автокодировщика из Интернета и установил Tensorflow 2.10.1 на Windows WSL2 с помощью этого руководства: Установите TensorFlow с помощью pip — WSL2 (tensorflow.org)
Мой вывод для nvidia-smi:
import subprocess as sp
import os
def get_gpu_memory():
command = "nvidia-smi --query-gpu=memory.free --format=csv"
memory_free_info = sp.check_output(command.split()).decode('ascii').split('\n')[:-1][1:]
memory_free_values = [int(x.split()[0]) for i, x in enumerate(memory_free_info)]
return memory_free_values
gpu_memory = get_gpu_memory()
print("Free GPU Memory (in MiB):", gpu_memory)
Я скопировал простой пример автокодировщика из Интернета и установил Tensorflow 2.10.1 на Windows WSL2 с помощью этого руководства: Установите TensorFlow с помощью pip — WSL2 (tensorflow.org) Мой вывод для nvidia-smi: [img]https://i.sstatic.net/IYxNpVnW.png[/img]
Это мой автоэнкодер: [code]import os os.environ['TF_CPP_MIN_LOG_LEVEL'] = '1' os.environ["CUDA_VISIBLE_DEVICES"]="0,1"
from tensorflow.keras.models import load_model # type: ignore import random import matplotlib.pyplot as plt import numpy as np import tensorflow as tf from tensorflow import keras K = keras.backend
gpus = tf.config.experimental.list_physical_devices('GPU') if gpus: try: # Set memory growth to true for gpu in gpus: tf.config.experimental.set_memory_growth(gpu, True) except RuntimeError as e: print(e)
# create prefetch generators to speed things up a bit training_generator = training_generator.prefetch(128) validation_generator = validation_generator.prefetch(128)
# create the final generators to be used in training the autoencoders X_train = training_generator.map(replicate_inputs_to_outputs) X_valid = validation_generator.map(replicate_inputs_to_outputs)
# add early stopping early_stopping_cb = keras.callbacks.EarlyStopping( patience=5, restore_best_weights=True)
# clear the session for a clean run keras.backend.clear_session() tf.random.set_seed(42)
# compile and run ae.compile(loss="mean_squared_error", optimizer=keras.optimizers.Nadam()) history = ae.fit(X_train, validation_data=X_valid, epochs=25, callbacks=[lr_scheduler, early_stopping_cb]) # save model for future use # handy for fast iteration and experiments ae.save('trained_ae.h5') # reload model
for images, _ in X_valid.take(1): ae_images = ae.predict(images) for i in range(10): ax = plt.subplot(5, 4, (i * 2) + 1) plt.imshow(images[i]) plt.title('original')
plt.show() [/code] Когда я запускаю это, я получаю кучу следующих сообщений: [img]https://i.sstatic.net/v8YsSDVo.png [/img] И, наконец, выдает ошибку распределения памяти: [img]https://i.sstatic.net/tCZdYdjy. png[/img]
Я использовал простой код, чтобы проверить доступную память, и он вернул следующее: [code]import subprocess as sp import os
def get_gpu_memory(): command = "nvidia-smi --query-gpu=memory.free --format=csv" memory_free_info = sp.check_output(command.split()).decode('ascii').split('\n')[:-1][1:] memory_free_values = [int(x.split()[0]) for i, x in enumerate(memory_free_info)] return memory_free_values
gpu_memory = get_gpu_memory() print("Free GPU Memory (in MiB):", gpu_memory) [/code] [img]https://i.sstatic.net/yr4HVh50.png[/img] Как Мне не хватает памяти ошибка?
Я столкнулся с проблемой производительности при выполнении операций умножения матриц с использованием библиотек Eigen и ViennaCL на C++. Я сравниваю производительность выполнения этих операций на встроенном графическом процессоре моей системы и на...
Я хотел бы поделиться некоторыми постоянными между процессором и графическим процессором, чтобы разрешить выполнение того же кода (обернутый между ними). Это включает в себя некоторые параметры времени компиляции, которые наиболее разумно написаны в...
Я хотел бы поделиться некоторыми постоянными между процессором и графическим процессором, чтобы разрешить выполнение того же кода (обернутый между ними). Это включает в себя некоторые параметры времени компиляции, которые наиболее разумно написаны в...
Я хотел бы поделиться некоторыми постоянными между процессором и графическим процессором, чтобы разрешить выполнение того же кода (обернутый между ними). Это включает в себя некоторые параметры времени компиляции, которые наиболее разумно написаны в...
У меня возникла проблема с функцией Feature_extraction из colmap при использовании ее внутри контейнера Docker. Поскольку внутри контейнера нет дисплея, мне нужно отключить графический процессор, как указано здесь