Я учусь использовать pytorch и использую его в Google Colab. Я использую следующий сценарий: у меня есть созданный мной набор данных Toy и модель LSTM, которую я хочу обучить. Я получаю несколько ошибок, которые не могу устранить
import torch
import torch.nn as nn
import torch.optim as optim
import torch.nn.functional as F
from torchsummary import summary
import numpy as np
# Data preparation
X = np.array([[(1,2,3,3,1),(3,2,1,3,2),(3,2,2,3,3),(2,2,1,1,2),(2,1,1,1,1)],
[(4,5,6,4,4),(5,6,4,3,2),(5,5,6,1,3),(3,3,3,2,2),(2,3,3,2,1)],
[(7,8,9,4,7),(7,7,6,7,8),(5,8,7,8,8),(6,7,6,7,8),(5,7,6,6,6)],
[(7,8,9,8,6),(6,6,7,8,6),(8,7,8,8,8),(8,6,7,8,7),(8,6,7,8,8)],
[(4,5,6,5,5),(5,5,5,6,4),(6,5,5,5,6),(4,4,3,3,3),(5,5,4,4,5)],
[(4,5,6,5,5),(5,5,5,6,4),(6,5,5,5,6),(4,4,3,3,3),(5,5,4,4,5)],
[(1,2,3,3,1),(3,2,1,3,2),(3,2,2,3,3),(2,2,1,1,2),(2,1,1,1,1)]])
y = np.array([0, 1, 2, 2, 1, 1, 0])
X = torch.tensor(X, dtype=torch.float32)
y = torch.tensor(y, dtype=torch.long)
# Check if GPU is available
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
# Move input tensors to the same device as the model
X = X.to(device)
y = y.to(device)
# Define the LSTM model
class LSTMModel(nn.Module):
def __init__(self):
super(LSTMModel, self).__init__()
self.lstm1 = nn.LSTM(input_size=5, hidden_size=128, batch_first=True)
self.lstm2 = nn.LSTM(input_size=128, hidden_size=128, batch_first=True)
self.fc1 = nn.Linear(128 * 5, 128)
self.fc2 = nn.Linear(128, 3)
def forward(self, x):
x, _ = self.lstm1(x)
x, _ = self.lstm2(x)
x = x.reshape(x.size(0), -1) # Flatten the output
x = F.relu(self.fc1(x))
x = F.log_softmax(self.fc2(x), dim=1)
return x
model = LSTMModel().to(device)
# Print model summary using torchsummary
summary(model, input_size=(5, 5))
# Print the model architecture manually
print(model)
# Count the total number of parameters
total_params = sum(p.numel() for p in model.parameters())
trainable_params = sum(p.numel() for p in model.parameters() if p.requires_grad)
print(f'Total parameters: {total_params}')
print(f'Trainable parameters: {trainable_params}')
Я учусь использовать pytorch и использую его в Google Colab. Я использую следующий сценарий: у меня есть созданный мной набор данных Toy и модель LSTM, которую я хочу обучить. Я получаю несколько ошибок, которые не могу устранить [code]import torch import torch.nn as nn import torch.optim as optim import torch.nn.functional as F from torchsummary import summary import numpy as np # Data preparation X = np.array([[(1,2,3,3,1),(3,2,1,3,2),(3,2,2,3,3),(2,2,1,1,2),(2,1,1,1,1)], [(4,5,6,4,4),(5,6,4,3,2),(5,5,6,1,3),(3,3,3,2,2),(2,3,3,2,1)], [(7,8,9,4,7),(7,7,6,7,8),(5,8,7,8,8),(6,7,6,7,8),(5,7,6,6,6)], [(7,8,9,8,6),(6,6,7,8,6),(8,7,8,8,8),(8,6,7,8,7),(8,6,7,8,8)], [(4,5,6,5,5),(5,5,5,6,4),(6,5,5,5,6),(4,4,3,3,3),(5,5,4,4,5)], [(4,5,6,5,5),(5,5,5,6,4),(6,5,5,5,6),(4,4,3,3,3),(5,5,4,4,5)], [(1,2,3,3,1),(3,2,1,3,2),(3,2,2,3,3),(2,2,1,1,2),(2,1,1,1,1)]]) y = np.array([0, 1, 2, 2, 1, 1, 0])
X = torch.tensor(X, dtype=torch.float32) y = torch.tensor(y, dtype=torch.long)
# Check if GPU is available device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
# Move input tensors to the same device as the model X = X.to(device) y = y.to(device)
def forward(self, x): x, _ = self.lstm1(x) x, _ = self.lstm2(x) x = x.reshape(x.size(0), -1) # Flatten the output x = F.relu(self.fc1(x)) x = F.log_softmax(self.fc2(x), dim=1) return x
model = LSTMModel().to(device)
# Print model summary using torchsummary summary(model, input_size=(5, 5))
# Print the model architecture manually print(model)
# Count the total number of parameters total_params = sum(p.numel() for p in model.parameters()) trainable_params = sum(p.numel() for p in model.parameters() if p.requires_grad)
print(f'Total parameters: {total_params}') print(f'Trainable parameters: {trainable_params}') [/code] Кто-нибудь знает, что я делаю неправильно?
Я пытаюсь использовать Resnet3d из библиотеки Tensorflow , но я получаю эту странную ошибку при попытке запустить блок
!pip install tf-models-official==2.17.0
tensorflow версия 2,18 в ноутбуке Kaggle.
from tensorflow.keras.callbacks import...
Я использовал Shap, чтобы интерпретировать мою модель CNN, как это:
explainer = shap.DeepExplainer(model=model, data = X_train )
shap_values = explainer.shap_values(X_test )
Когда shap пытается получить выходную форму в своей внутренней функции,...
Я пытаюсь использовать Resnet3d из библиотеки Tensorflow , но я получаю эту странную ошибку при попытке запустить блок
def create_model():
base_model = tfm.vision.backbones.ResNet3D(model_id = 50,
temporal_strides= ,
temporal_kernel_sizes = ,...
Я пытаюсь использовать Resnet3d из библиотеки Tensorflow , но я получаю эту странную ошибку при попытке запустить блок
def create_model():
base_model = tfm.vision.backbones.ResNet3D(model_id = 50,
temporal_strides= ,
temporal_kernel_sizes = ,...