Награда не улучшается для пользовательской среды с использованием PPOPython

Программы на Python
Ответить Пред. темаСлед. тема
Anonymous
 Награда не улучшается для пользовательской среды с использованием PPO

Сообщение Anonymous »

Я пытался обучить агента в специальной среде, которую я реализовал с помощью тренажерного зала, целью которой было устранение нарушений напряжения в электросети путем регулирования активной мощности (нагрузок) на каждом узле. Я пробовал в основном два алгоритма: стабильные базовые линии3, PPO и DDPG. Однако в обоих случаях я получаю очень плохие результаты (например, вознаграждение со временем уменьшается), и я надеялся, что кто-нибудь поможет мне двигаться в лучшем направлении.
Итак, агент берет наблюдение, которое содержит значения напряжения каждого узла и некоторые другие непрерывные значения, затем выполняет действие, которое представляет собой возможность изменения нагрузки на каждый узел сети (то есть массив с 24 непрерывными значениями), затем выполняется поток мощности для определить новые значения напряжения, а затем на основе этого нового напряжения рассчитывается вознаграждение. ценности.
Я хочу, чтобы мой агент действовал как можно меньше и устранял нарушения за минимальное количество времени. Итак, я структурировал функцию вознаграждения следующим образом:
  • Если нарушений нет, я даю награду в размере 10, и выпуск завершается
  • На каждом этапе, если есть нарушения, я налагаю базовый штраф и добавляю дополнительный штраф, пропорциональный величине корректировки.
  • Если корректировки, внесенные агентом, таковы. крайность, что мой алгоритм потока мощности не сходится и перестает работать, я налагаю штраф в размере -10 и эпизод заканчивается.
Настройка эпизода: Эпизоды начинаются с первоначальных наблюдений, содержащих нарушения. Когда эпизод закончится, следующий эпизод начнется с другого наблюдения с напряжениями (некоторые с нарушениями).
Моя модель PPO имеет следующие параметры:

Код: Выделить всё

model = PPO("MlpPolicy", env, verbose=1, n_steps=256, tensorboard_log="C:\Users\antonio\Downloads\RL", ent_coef=0.01, gamma=0.9)
Я выбрал более низкую гамму, поскольку агенту необходимо быстро расставить приоритеты в устранении нарушений.
Вот метрики для попытки PPO с 10 тысячами шагов:
Изображение

Для DDPG я использовал значения по умолчанию SB3, и я получил это:
Изображение

Это это так, извините за длинный пост. В любом случае, какие предложения вы могли бы мне дать?

Подробнее здесь: https://stackoverflow.com/questions/792 ... -using-ppo
Реклама
Ответить Пред. темаСлед. тема

Быстрый ответ

Изменение регистра текста: 
Смайлики
:) :( :oops: :roll: :wink: :muza: :clever: :sorry: :angel: :read: *x)
Ещё смайлики…
   
К этому ответу прикреплено по крайней мере одно вложение.

Если вы не хотите добавлять вложения, оставьте поля пустыми.

Максимально разрешённый размер вложения: 15 МБ.

  • Похожие темы
    Ответы
    Просмотры
    Последнее сообщение

Вернуться в «Python»