TensorFlow в nvidia-docker: не удалось вызвать cuInit: CUDA_ERROR_UNKNOWNPython

Программы на Python
Ответить Пред. темаСлед. тема
Anonymous
 TensorFlow в nvidia-docker: не удалось вызвать cuInit: CUDA_ERROR_UNKNOWN

Сообщение Anonymous »

Я работаю над созданием приложения, которое использует TensorFlow для работы в качестве докер-контейнера с nvidia-docker. Я скомпилировал свое приложение поверх изображения tensorflow/tensorflow:latest-gpu-py3. Я запускаю свой докер-контейнер с помощью следующей команды:

Код: Выделить всё

sudo nvidia-docker run -d -p 9090:9090 -v /src/weights:/weights myname/myrepo:mylabel
При просмотре логов через portainer вижу следующее:

Код: Выделить всё

2017-05-16 03:41:47.715682: W tensorflow/core/platform/cpu_feature_guard.cc:45] The TensorFlow library wasn't compiled to use SSE4.1 instructions, but these are available on your machine and could speed up CPU computations.
2017-05-16 03:41:47.715896: W tensorflow/core/platform/cpu_feature_guard.cc:45] The TensorFlow library wasn't compiled to use SSE4.2 instructions, but these are available on your machine and could speed up CPU computations.
2017-05-16 03:41:47.715948: W tensorflow/core/platform/cpu_feature_guard.cc:45] The TensorFlow library wasn't compiled to use AVX instructions, but these are available on your machine and could speed up CPU computations.
2017-05-16 03:41:47.715978: W tensorflow/core/platform/cpu_feature_guard.cc:45] The TensorFlow library wasn't compiled to use AVX2 instructions, but these are available on your machine and could speed up CPU computations.
2017-05-16 03:41:47.716002: W tensorflow/core/platform/cpu_feature_guard.cc:45] The TensorFlow library wasn't compiled to use FMA instructions, but these are available on your machine and could speed up CPU computations.
2017-05-16 03:41:47.718076: E tensorflow/stream_executor/cuda/cuda_driver.cc:405] failed call to cuInit: CUDA_ERROR_UNKNOWN
2017-05-16 03:41:47.718177: I tensorflow/stream_executor/cuda/cuda_diagnostics.cc:158] retrieving CUDA diagnostic information for host: 1e22bdaf82f1
2017-05-16 03:41:47.718216: I tensorflow/stream_executor/cuda/cuda_diagnostics.cc:165] hostname: 1e22bdaf82f1
2017-05-16 03:41:47.718298: I tensorflow/stream_executor/cuda/cuda_diagnostics.cc:189] libcuda reported version is: 367.57.0
2017-05-16 03:41:47.718398: I tensorflow/stream_executor/cuda/cuda_diagnostics.cc:369] driver version file contents: """NVRM version: NVIDIA UNIX x86_64 Kernel Module  367.57  Mon Oct  3 20:37:01 PDT 2016
GCC version:  gcc version 4.8.4 (Ubuntu 4.8.4-2ubuntu1~14.04.3)
"""
2017-05-16 03:41:47.718455: I tensorflow/stream_executor/cuda/cuda_diagnostics.cc:193] kernel reported version is: 367.57.0
2017-05-16 03:41:47.718484: I tensorflow/stream_executor/cuda/cuda_diagnostics.cc:300] kernel version seems to match DSO: 367.57.0
Кажется, что контейнер запускается правильно, и мое приложение работает. Когда я отправляю к нему запросы на прогнозы, прогнозы возвращаются правильно, однако на медленной скорости, которую я ожидал бы при выполнении вывода на ЦП, поэтому я думаю, совершенно ясно, что графический процессор по какой-то причине не используется. Я также попробовал запустить nvidia-smi из того же контейнера, чтобы убедиться, что он видит мой графический процессор, и вот результаты:

Код: Выделить всё

+-----------------------------------------------------------------------------+
| NVIDIA-SMI 367.57                 Driver Version: 367.57                    |
|-------------------------------+----------------------+----------------------+
| GPU  Name        Persistence-M| Bus-Id        Disp.A | Volatile Uncorr. ECC |
| Fan  Temp  Perf  Pwr:Usage/Cap|         Memory-Usage | GPU-Util  Compute M. |
|===============================+======================+======================|
|   0  GRID K1             Off  | 0000:00:07.0     Off |                  N/A |
| N/A   28C    P8     7W /  31W |     25MiB /  4036MiB |      0%      Default |
+-------------------------------+----------------------+----------------------+

+-----------------------------------------------------------------------------+
| Processes:                                                       GPU Memory |
|  GPU       PID  Type  Process name                               Usage      |
|=============================================================================|
+-----------------------------------------------------------------------------+
Я, конечно, не эксперт в этом, но похоже, что графический процессор виден изнутри контейнера. Есть идеи, как заставить это работать с TensorFlow?


Подробнее здесь: https://stackoverflow.com/questions/439 ... or-unknown
Реклама
Ответить Пред. темаСлед. тема

Быстрый ответ

Изменение регистра текста: 
Смайлики
:) :( :oops: :roll: :wink: :muza: :clever: :sorry: :angel: :read: *x)
Ещё смайлики…
   
К этому ответу прикреплено по крайней мере одно вложение.

Если вы не хотите добавлять вложения, оставьте поля пустыми.

Максимально разрешённый размер вложения: 15 МБ.

  • Похожие темы
    Ответы
    Просмотры
    Последнее сообщение
  • TensorFlow в nvidia-docker: не удалось вызвать cuInit: CUDA_ERROR_UNKNOWN
    Anonymous » » в форуме Python
    0 Ответы
    8 Просмотры
    Последнее сообщение Anonymous
  • Tensorflow (не tensorflow-gpu): не удалось вызвать cuInit: НЕИЗВЕСТНАЯ ОШИБКА (303)
    Anonymous » » в форуме Python
    0 Ответы
    19 Просмотры
    Последнее сообщение Anonymous
  • TensorFlow 2.15.0 не распознает NVIDIA GeForce GTX 1650 с CUDA 12.1 и cuDNN для CUDA 11.8
    Anonymous » » в форуме Python
    0 Ответы
    113 Просмотры
    Последнее сообщение Anonymous
  • Почему nactiverpcerror of rpc, который завершился: status = statuscode.unknown error иногда показывает
    Anonymous » » в форуме Python
    0 Ответы
    13 Просмотры
    Последнее сообщение Anonymous
  • ## React Native Document Ficker Error Error Error: `GuardEdresultAsynctask` не найдена
    Anonymous » » в форуме Android
    0 Ответы
    24 Просмотры
    Последнее сообщение Anonymous

Вернуться в «Python»