Zum Inhalt
Fakultät für Informatik

Safe Reinforcement Learning

"Safe Reinforcement Learning" bezieht sich auf eine Erweiterung des klassischen Reinforcement Learning, bei der der Schwerpunkt auf der Gewährleistung der Sicherheit des Agenten und seiner Umgebung liegt. Im herkömmlichen Reinforcement Learning wird ein Agent trainiert, um Aufgaben in einer Umgebung zu erlernen, indem er Aktionen auswählt und Belohnungen basierend auf seinen Handlungen erhält. Dabei kann es jedoch zu riskanten oder gefährlichen Aktionen kommen, die in der realen Welt unerwünschte Konsequenzen haben könnten.

Safe Reinforcement Learning zielt darauf ab, solche unerwünschten Konsequenzen zu vermeiden oder zu minimieren.

Dies kann auf verschiedene Arten erreicht werden, darunter:

  1. Exploration sicherer Aktionen: Der Agent wird so trainiert, dass er sich in seinen Handlungen konservativ verhält und riskante Aktionen vermeidet. Dies kann durch die Verwendung von Sicherheitskriterien oder -beschränkungen erfolgen.

  2. Simulation und Testen: Sicherheitskritische Situationen werden in simulierten Umgebungen oder auf abstrakte Weise getestet, um sicherzustellen, dass der Agent in der realen Umgebung sicher agieren kann.

  3. Menschliche Überwachung: Ein menschlicher Operator kann in den Trainingsprozess einbezogen werden, um potenziell gefährliche Aktionen zu verhindern und den Agenten zu korrigieren.

  4. Bewertungsfunktionen für Sicherheitsaspekte: Der Agent kann zusätzlich zu den normalen Belohnungsfunktionen Sicherheitswerte oder -kritik einbeziehen, um sicherheitsrelevante Aspekte zu berücksichtigen.

 

Ansprechpartner:

Pierre Haritz