Zurück zum Glossar

Fairness (in KI)

Grundlagen

Grundsatz, nach dem Modelle Gruppen nicht benachteiligen sollen.


Fairness zielt darauf, ungerechtfertigte Unterschiede in Vorhersagen oder Entscheidungen zu minimieren.

  • Perspektiven: individuelle vs. gruppenbasierte Fairness.
  • Metriken: Demographic Parity, Equalized Odds, Predictive Parity.
  • Praxis: Trade-offs transparent machen, Betroffene einbeziehen, kontinuierliches Monitoring.