Zurück zum Glossar
Aktivierungsfunktion
Daten/Training/Evaluierung
Nichtlinearität in Neuronen (ReLU, Sigmoid, Tanh).
Aktivierungsfunktionen führen Nichtlinearität in neuronale Netze ein und ermöglichen es, komplexe Zusammenhänge zu modellieren. Ohne sie wären neuronale Netze einfache lineare Modelle.
- Beispiele: ReLU, Sigmoid, Tanh, Softmax.
- Einfluss: Stabilität des Lernprozesses und Fähigkeit, komplexe Muster zu erkennen.