Zurück zum Glossar
Gradient Descent
Daten/Training/Evaluierung
Schrittweise Minimierung der Loss.
Gradient Descent (Gradientenabstieg) ist ein Optimierungsverfahren, das die Gewichte eines Modells in Richtung des steilsten Gefälles des Fehlers anpasst. So wird der Verlust schrittweise minimiert.
- Varianten: Batch, Stochastic, Mini-Batch.
- Parameter: Lernrate bestimmt Schrittgröße und Stabilität.