Entscheidungsbaum-Classifier: Wie Gini und Entropie den besten Schnitt bestimmen
Im letzten Beitrag haben wir gesehen, wie ein Entscheidungsbaum-Regressor die optimale Trennung findet, indem er die mittlere quadratische Fehler minimiert. Heute wechseln wir zum Klassifikationsbereich und untersuchen, wie ein Decision‑Tree‑Classifier bei einer einzigen numerischen Variable und zwei Klassen entscheidet, wo die Daten geschnitten werden sollen.