Zurück zum Glossar

Modellkompression

Daten/Training/Evaluierung

Pruning/Quantisierung zur Beschleunigung.


Modellkompression umfasst Verfahren, die Größe und Rechenaufwand eines neuronalen Netzes verringern, ohne die Genauigkeit stark zu beeinträchtigen. Ziel ist der effiziente Einsatz auf Geräten mit begrenzten Ressourcen.

  • Techniken: Pruning, Quantisierung, Knowledge Distillation.
  • Anwendungsgebiete: Mobile KI, Edge Computing, eingebettete Systeme.