Pytorch + Ray Tune сообщает, что ImplicitFunc слишком велик, не знаю, какая ссылка великаPython

Программы на Python
Ответить Пред. темаСлед. тема
Anonymous
 Pytorch + Ray Tune сообщает, что ImplicitFunc слишком велик, не знаю, какая ссылка велика

Сообщение Anonymous »

Похоже на этот вопрос, Ray Tune сообщает мне:

ValueError: актер ImplicitFunc слишком велик (421 МБ > FUNCTION_SIZE_ERROR_THRESHOLD=95 МБ) . Убедитесь, что его определение не охватывает неявно большой массив или другой объект в области видимости. Совет: используйте ray.put() для помещения больших объектов в хранилище объектов Ray.

Я понятия не имею, что захватывается в моей области. Похоже, он сообщит об этом независимо от того, какие изменения я внесу. Я попытался извлечь из функции дюжину различных ссылок и поместить их во внутреннюю память Рэя (ray.get() и ray.put()), но это практически не сдвинулось с места. Если исключить определение модели, данные обучения/тестирования и функцию свертывания, результат все равно составит 421 МБ. Какая ссылка составляет >400 МБ?
Определение модели:
INPUT_DIM = tch_train.features.shape[1] - 1 #Removing an input feature because the sample weight is included with the input data
OUTPUT_DIM = tch_train.labels.shape[1]

class Net(nn.Module):
def __init__(self):
super(Net, self).__init__()
self.fc1 = nn.Linear(INPUT_DIM, OUTPUT_DIM)

def forward(self, input):

output = F.softmax(F.relu(self.fc1(input)), dim=1)

return output

Основная функция:
K_FOLDS = 5
loss_function = nn.CrossEntropyLoss(reduction='none')
kfold = KFold(n_splits=K_FOLDS, shuffle=True)

fold_indices = [(train_ids, test_ids) for train_ids, test_ids in kfold.split(tch_train)]
fold_indices_ref = ray.put(fold_indices)

tch_train_ref = ray.put(tch_train)

# This function is the "Main stuff" of the machine learning.
# This will be called by RayTune and will be expected to train a machine learning model and report the results.
def objective(config):
optimizer = torch.optim.SGD( # Tune the optimizer
model.parameters(), lr=config["lr"], momentum=config["momentum"]
)

# Make a model for each fold.
fold_models = []
for fold in range(K_FOLDS):
fold_models.append(Net().to("cuda"))

# Epoch loop
while True:
fold_losses = []

for fold in range(K_FOLDS):
train_ids, test_ids = ray.get(fold_indices_ref)[fold]

# Take Epoch sample from the 4/1 train/test fold chunks.
train_subsampler = torch.utils.data.SubsetRandomSampler(train_ids)
test_subsampler = torch.utils.data.SubsetRandomSampler(test_ids)
trainloader = torch.utils.data.DataLoader(ray.get(tch_train_ref), batch_size=config["batch_size"], sampler=train_subsampler)
testloader = torch.utils.data.DataLoader(ray.get(tch_train_ref), batch_size=config["batch_size"], sampler=test_subsampler)

# Iterate over the DataLoader for training data
for i, data in enumerate(trainloader, 0):
# Get inputs
features, targets = data
inputs = features[:,1:]
sample_weights = features[:,0]

# Zero the gradients
optimizer.zero_grad()

# Perform forward pass
outputs = fold_models[fold](inputs)

# Compute loss
loss = loss_function(outputs, targets) * sample_weights

# Perform backward pass
loss.mean().backward()

# Perform optimization
optimizer.step()

# Test on test fold
fold_losses[fold] = 0.0
with torch.no_grad():
# Iterate over the test data and generate predictions
for i, data in enumerate(testloader, 0):
# Get inputs
features, targets = data
inputs = features[:,1:]
sample_weights = features[:,0]

# Generate outputs
outputs = net(inputs)

#Add test loss
fold_losses[fold] += (loss_function(outputs, targets) * sample_weights).sum()

# Report average fold losses
train.report({"averaged_CEL": sum(fold_losses) / float(K_FOLDS)}) # Report to Tune

Настройка конфигурации:
search_space = {"lr": ray.tune.loguniform(1e-4, 1e-2), "momentum": ray.tune.uniform(0.1, 0.9)}
algo = OptunaSearch()

tuner = ray.tune.Tuner(
objective,
tune_config=ray.tune.TuneConfig(
metric="averaged_CEL",
mode="min",
search_alg=algo,
),
run_config=ray.train.RunConfig(
stop={"training_iteration": 5},
),
param_space=search_space,
)
results = tuner.fit()
print("Best config is:", results.get_best_result().config)


Подробнее здесь: https://stackoverflow.com/questions/791 ... -reference
Реклама
Ответить Пред. темаСлед. тема

Быстрый ответ

Изменение регистра текста: 
Смайлики
:) :( :oops: :roll: :wink: :muza: :clever: :sorry: :angel: :read: *x)
Ещё смайлики…
   
К этому ответу прикреплено по крайней мере одно вложение.

Если вы не хотите добавлять вложения, оставьте поля пустыми.

Максимально разрешённый размер вложения: 15 МБ.

  • Похожие темы
    Ответы
    Просмотры
    Последнее сообщение
  • Pytorch + Ray Tune сообщает, что ImplicitFunc слишком велик, не знаю, какая ссылка велика
    Anonymous » » в форуме Python
    0 Ответы
    11 Просмотры
    Последнее сообщение Anonymous
  • Ray.tune: отслеживаемый актер не управляется
    Anonymous » » в форуме Python
    0 Ответы
    6 Просмотры
    Последнее сообщение Anonymous
  • Ray.tune: отслеживаемый актер не управляется
    Anonymous » » в форуме Python
    0 Ответы
    3 Просмотры
    Последнее сообщение Anonymous
  • Пакет Pytorch слишком велик
    Anonymous » » в форуме Python
    0 Ответы
    12 Просмотры
    Последнее сообщение Anonymous
  • Я получаю сообщение «TypeError: попытка вызвать get со значением 0, которое не является ray.ObjectRef». в ray.get после
    Anonymous » » в форуме Python
    0 Ответы
    27 Просмотры
    Последнее сообщение Anonymous

Вернуться в «Python»