Zurück zum Glossar

Gradient Descent

Daten/Training/Evaluierung

Schrittweise Minimierung der Loss.


Gradient Descent (Gradientenabstieg) ist ein Optimierungsverfahren, das die Gewichte eines Modells in Richtung des steilsten Gefälles des Fehlers anpasst. So wird der Verlust schrittweise minimiert.

  • Varianten: Batch, Stochastic, Mini-Batch.
  • Parameter: Lernrate bestimmt Schrittgröße und Stabilität.