Durée: 12 mois
Rubrique: Ingénieur IA
Les arbres de décision sont des modèles de machine learning non paramétriques utilisés à la fois pour les tâches de classification et de régression. Un arbre de décision est structuré comme un arbre, où chaque nœud interne représente un "test" sur une caractéristique (par exemple, estce que la température est supérieure à 30°C ?). Chaque branche représente le résultat du test, et chaque feuille représente une étiquette de classe ou une valeur de régression.
La construction d'un arbre de décision implique de récursivement séparer les données en sousensembles basés sur l'attribut qui offre la meilleure séparation. Ce processus est souvent basé sur des métriques comme :
Un exemple d'algorithme utilisé pour bâtir un arbre de décision est l'ID3 (Iterative Dichotomiser 3), qui utilise l'entropie et le gain d'information pour effectuer les splits. Voici une description simplifiée :
Pour empêcher l'arbre de devenir trop complexe, des critères d'arrêt sont souvent imposés : Profondeur maximale: Limite le nombre de niveaux de l'arbre. Nombre minimum d’échantillons par feuille: Limite le nombre minimum d’échantillons requis pour créer une feuille.
Les feuilles de l’arbre peuvent fournir des règles de décision basées sur les branches et les nœuds traversés. Par exemple, une règle pourrait être : "Si la température > 30°C et si l'humidité < 50%, alors il va faire soleil".
Les arbres de décision peuvent également être utilisés pour estimer l'importance relative des variables en fonction de leur contribution à la pureté des splits.
Racine, Nœud, Feuille, Divison, Gain d'information