Реализую проект компьютерного зрения. В этом проекте я использовал FPN (с магистральной сетью ResNet50) и BayesianFPN. Эта сеть находится под управлением агента обучения с подкреплением. При реализации мне выдается
RuntimeError: The size of tensor a (64) must match the size of tensor b (256) at non-singleton dimension 3
Что заставило код выдать эту ошибку?
Это из-за несоответствия обучающего изображения (изображение RGB ) и проверочное изображение (двоичная маска)?
Есть ли какое-то внутреннее изменение размера, которое мне не хватает?
Ниже это код. Я хочу реализовать класс BayesianFPNwithRL.
Я попробовал изменить форму тензора весов. Это не сработало. Даже при разжатии или расширении этого эффекта не произошло. ДЛЯ СПРАВКИ:
Реализую проект компьютерного зрения. В этом проекте я использовал FPN (с магистральной сетью ResNet50) и [b]BayesianFPN[/b]. Эта сеть находится под управлением агента обучения с подкреплением. При реализации мне выдается [code]RuntimeError: The size of tensor a (64) must match the size of tensor b (256) at non-singleton dimension 3 [/code] [list] [*]Что заставило код выдать эту ошибку? [*]Это из-за несоответствия обучающего изображения (изображение RGB ) и проверочное изображение (двоичная маска)? [*]Есть ли какое-то внутреннее изменение размера, которое мне не хватает? [/list] Ниже это код. Я хочу реализовать класс BayesianFPNwithRL. Я попробовал изменить форму тензора весов. Это не сработало. Даже при разжатии или расширении этого эффекта не произошло. [b]ДЛЯ СПРАВКИ:[/b] [list] [*]Размеры изображения RGB – 1280x720 пикселей; [*]Размеры двоичной маски: 1280x720 пикселей. [/list] [code]# Bayesian FPN with RL class BayesianFPNWithRL(nn.Module): def __init__(self, backbone_with_fpn, rl_agent, dropout_p=0.2): super(BayesianFPNWithRL, self).__init__() self.backbone_with_fpn = backbone_with_fpn self.dropout = nn.Dropout(p=dropout_p) self.rl_agent = rl_agent
fpn_outputs = self.backbone_with_fpn(x) keys = list(fpn_outputs.keys()) features = [fpn_outputs[key] for key in keys]
common_size = features[0].shape[2:] features = [F.interpolate(f, size=common_size, mode="nearest") for f in features]
if not self.training: sampled_features = [] for _ in range(mc_samples): sampled_features.append([self.dropout(f) for f in features]) features = [ torch.mean(torch.stack([sample[i] for sample in sampled_features]), dim=0) for i in range(len(features)) ]
global_features = [f.mean(dim=(2, 3)) for f in features] rl_input = torch.cat(global_features, dim=1)
Реализую проект компьютерного зрения. В этом проекте я использовал FPN (с магистральной сетью ResNet50) и BayesianFPN . Эта сеть находится под управлением Агента обучения с подкреплением . При реализации выдается RuntimeError: размер тензора a (64)...
Я прекрасно настраиваю модель сетчатки Resnet50 FPN V2 с использованием pytorch с retinanet_resnet50_fpn_v2_weights.default. Мой набор данных имеет около 13 050 образцов обучения, и я использую Google Colab с графическим процессором T4. Тем не...
Я пытаюсь использовать преобразователи аудиоспектрограмм для распознавания эмоций, но застрял на этой ошибке. я в замешательстве
что означает ошибка как решить проблему...
У меня возникли проблемы с пониманием этой строки кода pytorch при чтении исходных кодов mamba_ssm. (исходный код здесь: py#L121).
# Tensor shape
# b: batch_size, d: d_inner, l: sequence_length, n: d_state
# delta:
# A:
...
deltaA =...
Я работаю над точная настройка моей модели SpeechT5 для преобразования текста (технический жаргон, заданный на техническом собеседовании) в речь.
частота дискретизации установлена на 16 кГц.
Я получаю сообщение...