Zurück zum Glossar
Fairness (in KI)
Grundlagen
Grundsatz, nach dem Modelle Gruppen nicht benachteiligen sollen.
Fairness zielt darauf, ungerechtfertigte Unterschiede in Vorhersagen oder Entscheidungen zu minimieren.
- Perspektiven: individuelle vs. gruppenbasierte Fairness.
- Metriken: Demographic Parity, Equalized Odds, Predictive Parity.
- Praxis: Trade-offs transparent machen, Betroffene einbeziehen, kontinuierliches Monitoring.