Discussion de l'article "Data Science des Données et Apprentissage Automatique (Machine Learning) (partie 5) : Arbres de Décision"

 

Un nouvel article Data Science des Données et Apprentissage Automatique (Machine Learning) (partie 5) : Arbres de Décision a été publié :

Les Arbres de Décision imitent la façon dont les humains pensent pour classer les données. Voyons comment construire des arbres et comment les utiliser pour classer et prédire certaines données. L'objectif principal de l'algorithme des arbres de décision est de séparer les données contenant des impuretés en nœuds purs ou proches.

Les Arbres de Décision utilisent plusieurs algorithmes pour décider de diviser un nœud en deux ou plusieurs sous-ensembles de nœuds. La création de sous-nœuds augmente l'homogénéité des sous-nœuds résultants. En d'autres termes, nous pouvons dire que la pureté du nœud augmente, en ce qui concerne la variable cible. L'algorithme d’un arbre de décision divise les nœuds en fonction de toutes les variables disponibles et sélectionne ensuite la division qui donne les sous-nœuds les plus homogènes.

exemple d'un arbre de décision

La sélection de l'algorithme est basée sur le type des variables cibles.

Les algorithmes utilisés dans les arbres de décision sont les suivants :

  1. ID3 > Extension de D3
  2. C4.5 > Successeur de ID3
  3. CART > Arbre de Classification et de Régression
  4. CHAID > Chi-square Automatic Interaction Detection (Détection Automatique des Interactions Chi-carré), effectue des divisions à plusieurs niveaux lors du calcul des arbres de classification.
  5. MARS > Splines de Régression Adaptatives Multivariées

Dans cet article, je vais créer un arbre de décision basé sur l'algorithme ID3. Nous discuterons et utiliserons des autres algorithmes dans les prochains articles de cette série.

Auteur : Omega J Msigwa