Zurück zum Glossar

Regularisierung

Daten/Training/Evaluierung

Techniken gegen Overfitting (z.B. Dropout).


Regularisierung bezeichnet Methoden, die Überanpassung (Overfitting) an Trainingsdaten verhindern. Sie kontrollieren die Modellkomplexität und verbessern die Generalisierungsfähigkeit.

  • Beispiele: L1/L2-Regularisierung, Dropout, Datenaugmentation.
  • Ziel: Balance zwischen Genauigkeit und Robustheit.