Overfitting vs. Underfitting: Das Geheimnis des Bias-Variance-Trade-Off
In der Welt des maschinellen Lernens gilt: Der optimale Punkt liegt zwischen zwei Extremen – Overfitting und Underfitting. Overfitting bedeutet, dass ein Modell die Trainingsdaten zu genau abbildet und dadurch bei neuen Daten versagt. Underfitting dagegen lässt wichtige Muster unentdeckt.