Diskussion zum Artikel "Datenwissenschaft und maschinelles Lernen (Teil 05): Entscheidungsbäume"

 

Neuer Artikel Datenwissenschaft und maschinelles Lernen (Teil 05): Entscheidungsbäume :

Entscheidungsbäume imitieren die Art und Weise, wie Menschen denken, um Daten zu klassifizieren. Schauen wir mal, wie man so einen Baum erstellt und ihn zur Klassifizierung und Vorhersage einiger Daten verwenden kann. Das Hauptziel des Entscheidungsbaum-Algorithmus ist es, die Daten mit Fremdanteilen und die reinen oder knotennahen Daten abzutrennen.

Entscheidungsbäume verwenden mehrere Algorithmen, um zu entscheiden, ob ein Knoten in zwei oder mehr Unterknoten aufgeteilt werden soll. Durch die Bildung von Unterknoten wird die Homogenität der entstehenden Unterknoten erhöht. Mit anderen Worten kann man sagen, dass die Reinheit des Knotens in Bezug auf die Zielvariable zunimmt. Der Entscheidungsbaum-Algorithmus teilt die Knoten anhand aller verfügbaren Variablen auf und wählt dann die Aufteilung aus, die zu den homogensten Unterknoten führt.

Beispiel für einen Entscheidungsbaum

Die Auswahl des Algorithmus basiert auf der Art der Zielvariablen. 

Die folgenden Algorithmen werden für den Entscheidungsbaum verwendet: 

  1. ID3 > Erweiterung von D3
  2. C4.5 > Nachfolger von ID3
  3. CART > Klassifizierungs- und Regressionsbaum
  4. CHAID > Chi-Quadrat Automatic Interaction Detection, führt bei der Berechnung von Klassifikationsbäumen eine mehrstufige Aufteilung durch.
  5. MARS > Multivariate adaptive Regressionssplines

In diesem Artikel werde ich einen Entscheidungsbaum erstellen, der auf dem ID3-Algorithmus basiert. Wir werden die anderen Algorithmen in den nächsten Artikeln dieser Serie diskutieren und verwenden. 

Autor: Omega J Msigwa