Overfitting
Overfitting tritt auf, wenn ein KI-Modell die Trainingsdaten zu gut lernt, einschließlich des Rauschens, der Fehler oder zufälliger Muster, die eigentlich keine Rolle spielen. Infolgedessen funktioniert das Modell sehr gut mit den Daten, auf denen es trainiert wurde, hat jedoch Schwierigkeiten, wenn es mit neuen, unbekannten Daten konfrontiert wird. Es ist wie ein Schüler, der jedes Wort eines Lehrbuchs auswendig lernt, aber das Thema nicht wirklich versteht und bei der Prüfung durchfällt, wenn die Fragen anders formuliert sind.
Um Overfitting zu vermeiden, verwenden Entwickler Techniken wie die Vereinfachung des Modells, das Hinzufügen diversifizierterer Trainingsdaten oder den Einsatz von Regularisierung. Das Ziel ist es, ein Modell zu erstellen, das die allgemeinen Muster in den Daten lernt, anstatt nur die Antworten auswendig zu lernen. Ein gut ausbalanciertes Modell sollte sowohl bei den Trainingsdaten als auch bei echten Welt-Daten gute Leistungen erbringen.