---> backend='nccl'
/home/miranda9/miniconda3/envs/metalearningpy1.7.1c10.2/lib/python3.8/site-packages/torch/cuda/__init__.py:104: UserWarning:
A100-SXM4-40GB with CUDA capability sm_80 is not compatible with the current PyTorch installation.
The current PyTorch install supports CUDA capabilities sm_37 sm_50 sm_60 sm_61 sm_70 sm_75 compute_37.
If you want to use the A100-SXM4-40GB GPU with PyTorch, please check the instructions at https://pytorch.org/get-started/locally/
< /code>
, который сбивает с толку, потому что он указывает на обычную установку Pytorch, но не сообщает мне, какую комбинацию версии Pytorch + Cuda использовать для моего конкретного оборудования (A100). Как правильный способ установить Pytorch для A100?# conda install -y pytorch==1.8.0 torchvision cudatoolkit=10.2 -c pytorch
# conda install -y pytorch torchvision cudatoolkit=10.2 -c pytorch
#conda install -y pytorch==1.7.1 torchvision torchaudio cudatoolkit=10.2 -c pytorch -c conda-forge
# conda install -y pytorch==1.6.0 torchvision cudatoolkit=10.2 -c pytorch
#conda install -y pytorch==1.7.1 torchvision torchaudio cudatoolkit=11.1 -c pytorch -c conda-forge
# conda install pytorch torchvision torchaudio cudatoolkit=11.0 -c pytorch
# conda install pytorch torchvision torchaudio cudatoolkit=11.1 -c pytorch -c conda-forge
# conda install -y pytorch torchvision cudatoolkit=9.2 -c pytorch # For Nano, CC
# conda install pytorch torchvision torchaudio cudatoolkit=11.1 -c pytorch -c conda-forge
< /code>
Обратите внимание, что это может быть тонким, потому что у меня была эта ошибка с этой машиной + версией Pytorch в прошлом: < /p>
Как решить знаменитую ошибку Cuda nc1> < /h1> < /h1> < /h1> < /h1> < /h1> < /h1> < /h1> < /h1> < /h1>. /> У меня все еще есть ошибки: < /p>
ncclSystemError: System call (socket, malloc, munmap, etc) failed.
Traceback (most recent call last):
File "/home/miranda9/diversity-for-predictive-success-of-meta-learning/div_src/diversity_src/experiment_mains/main_dist_maml_l2l.py", line 1423, in
main()
File "/home/miranda9/diversity-for-predictive-success-of-meta-learning/div_src/diversity_src/experiment_mains/main_dist_maml_l2l.py", line 1365, in main
train(args=args)
File "/home/miranda9/diversity-for-predictive-success-of-meta-learning/div_src/diversity_src/experiment_mains/main_dist_maml_l2l.py", line 1385, in train
args.opt = move_opt_to_cherry_opt_and_sync_params(args) if is_running_parallel(args.rank) else args.opt
File "/home/miranda9/ultimate-utils/ultimate-utils-proj-src/uutils/torch_uu/distributed.py", line 456, in move_opt_to_cherry_opt_and_sync_params
args.opt = cherry.optim.Distributed(args.model.parameters(), opt=args.opt, sync=syn)
File "/home/miranda9/miniconda3/envs/meta_learning_a100/lib/python3.9/site-packages/cherry/optim.py", line 62, in __init__
self.sync_parameters()
File "/home/miranda9/miniconda3/envs/meta_learning_a100/lib/python3.9/site-packages/cherry/optim.py", line 78, in sync_parameters
dist.broadcast(p.data, src=root)
File "/home/miranda9/miniconda3/envs/meta_learning_a100/lib/python3.9/site-packages/torch/distributed/distributed_c10d.py", line 1090, in broadcast
work = default_pg.broadcast([tensor], opts)
RuntimeError: NCCL error in: ../torch/lib/c10d/ProcessGroupNCCL.cpp:911, unhandled system error, NCCL version 2.7.8
< /code>
Один из ответов, предполагаемый для соответствия nvcca & pytorch.version.cuda, но они не: < /p>
(meta_learning_a100) [miranda9@hal-dgx ~]$ python -c "import torch;print(torch.version.cuda)"
11.1
(meta_learning_a100) [miranda9@hal-dgx ~]$ nvcc -V
nvcc: NVIDIA (R) Cuda compiler driver
Copyright (c) 2005-2020 NVIDIA Corporation
Built on Wed_Jul_22_19:09:09_PDT_2020
Cuda compilation tools, release 11.0, V11.0.221
Build cuda_11.0_bu.TC445_37.28845127_0
< /code>
Как мне их сопоставить? Я это ошибка? Может ли кто -нибудь отобразить свою версию PIP, Conda и NVCCA, чтобы увидеть, что работает настройка?hal-dgx
hal-dgx
hal-dgx
hal-dgx
NCCL version 2.7.8+cuda11.1
hal-dgx
hal-dgx
hal-dgx
hal-dgx
hal-dgx
hal-dgx
hal-dgx
hal-dgx
hal-dgx
hal-dgx
hal-dgx
hal-dgx
hal-dgx
hal-dgx
hal-dgx
hal-dgx
hal-dgx
hal-dgx
hal-dgx
hal-dgx
hal-dgx
hal-dgx
hal-dgx
hal-dgx
hal-dgx
hal-dgx
hal-dgx
hal-dgx
hal-dgx
hal-dgx
< /code>
после размещения < /p>
import os
os.environ["NCCL_DEBUG"] = "INFO"
Подробнее здесь: https://stackoverflow.com/questions/669 ... n-a100-gpu