Zurück zum Glossar

Aktivierungsfunktion

Daten/Training/Evaluierung

Nichtlinearität in Neuronen (ReLU, Sigmoid, Tanh).


Aktivierungsfunktionen führen Nichtlinearität in neuronale Netze ein und ermöglichen es, komplexe Zusammenhänge zu modellieren. Ohne sie wären neuronale Netze einfache lineare Modelle.

  • Beispiele: ReLU, Sigmoid, Tanh, Softmax.
  • Einfluss: Stabilität des Lernprozesses und Fähigkeit, komplexe Muster zu erkennen.