Zurück zum Glossar

Alignment

Ethik/Sicherheit/Datenschutz

Ausrichtung von KI auf menschliche Werte/Ziele.


Alignment bezeichnet das Bestreben, sicherzustellen, dass die Ziele und Handlungen von KI-Systemen mit menschlichen Werten und Absichten übereinstimmen. Es ist ein zentrales Forschungsfeld der KI-Sicherheit.

  • Arten: Technisches Alignment (Verhalten), normatives Alignment (Werte), institutionelles Alignment (Regeln).
  • Herausforderung: Umgang mit Zielabweichungen bei autonomen Systemen.