Zurück zum Glossar
Alignment
Ethik/Sicherheit/Datenschutz
Ausrichtung von KI auf menschliche Werte/Ziele.
Alignment bezeichnet das Bestreben, sicherzustellen, dass die Ziele und Handlungen von KI-Systemen mit menschlichen Werten und Absichten übereinstimmen. Es ist ein zentrales Forschungsfeld der KI-Sicherheit.
- Arten: Technisches Alignment (Verhalten), normatives Alignment (Werte), institutionelles Alignment (Regeln).
- Herausforderung: Umgang mit Zielabweichungen bei autonomen Systemen.