import torch
t = torch.tensor(2,3)
< /code>
Я получил следующую ошибку. < /p>
typeerror traceback (самый последний вызов
last) in ()
----> 1 a = torch.tensor (2,3) < /p>
typer. Учитывается < /p>
< /blockquote>
Итак, я попробовал следующее < /p>
import torch
t = torch.Tensor(2,3)
# No error while creating the tensor
# When i print i get an error
print(t)
< /code>
Я получаю следующую ошибку < /p>
runtimeerror traceback (самый последний звонок
last) in ()
----> 1 print (a) < /p>
in ()
----> 1 print (a) < /p>
d: \ softwares \ anaconda \ lib \ site-packages \ torch_tensor_str.py в
_str (self)
216 suffix = ', dtype =' + str-str (self). 217
-> 218 FMT, Scale, SZ = _Number_format (self)
219 If Scale! = 1:
220 prefix = prefix + scale_format.format (scale) + '' * addent < /p>
d: \ softwares \ anaconda \ sitepacyorор. В
_number_format (tensor, min_sz)
94 # todo: используйте fmod?
95 для значения в тензоре:
---> 96 if value! = math.ceil (value.item ()):
97 int_mode = false
98 break < /p>
runmer runer
int_mode = false. Переполнение при распаковке длиной < /p>
< /blockquote>
Но, согласно этому сообщению, он смог создать тензор. Я что -то упускаю здесь. Кроме того, почему я смог создать тензор с Tensor
d: \ softwares \ anaconda \ sitepacyorор. В _number_format (tensor, min_sz) 94 # todo: используйте fmod? 95 для значения в тензоре: ---> 96 if value! = math.ceil (value.item ()): 97 int_mode = false 98 break < /p> runmer runer int_mode = false. Переполнение при распаковке длиной < /p> < /blockquote>
Но, согласно этому сообщению, он смог создать тензор. Я что -то упускаю здесь. Кроме того, почему я смог создать тензор с Tensor [/code] (Capital T), а не с Tensor (Small T)
Предыстория
Я пытаюсь придерживаться концепции Torch, чтобы гарантировать, что если структуры данных, с которыми я работаю, находятся в графическом процессоре, то все они находятся в графическом процессоре, и наоборот, чтобы Я не смешиваю...
Я написал конвейер обнаружения объектов DETR с нуля в Tensorflow.
DETR: Ссылка на Kaggle Notebook: содержит весь код; Создайте собственную копию блокнота, чтобы воспроизвести проблему