Zurück zum Glossar
Regularisierung
Daten/Training/Evaluierung
Techniken gegen Overfitting (z.B. Dropout).
Regularisierung bezeichnet Methoden, die Überanpassung (Overfitting) an Trainingsdaten verhindern. Sie kontrollieren die Modellkomplexität und verbessern die Generalisierungsfähigkeit.
- Beispiele: L1/L2-Regularisierung, Dropout, Datenaugmentation.
- Ziel: Balance zwischen Genauigkeit und Robustheit.