Durée: 12 mois
Rubrique: Ingénieur IA
L'exactitude (ou accuracy en anglais) est l'une des métriques de performance les plus simples et couramment utilisées pour évaluer des modèles de classification. Elle représente le pourcentage du nombre total de prédictions correctes effectuées par le modèle sur l'ensemble des données.
L'exactitude est définie par la formule suivante: [ \text{Exactitude} = \frac{\text{Nombre de prédictions correctes}}{\text{Nombre total de prédictions}} ]
Autrement dit, si un modèle a correctement classé 90 instances sur 100, l'exactitude sera de 90%.
Imaginons que nous avons un ensemble de test de 100 observations pour un modèle de classification binaire. Si le modèle prédit correctement la classe de 85 de ces observations, l'exactitude est alors de 85%.
Malgré sa simplicité, l'exactitude présente plusieurs défauts, notamment lorsqu'on travaille avec des jeux de données déséquilibrés. Par exemple, si une classe représente 95% des données et que le modèle prédit simplement cette classe pour chaque instance, l'exactitude sera de 95%, ce qui peut être trompeur quant à la performance réelle du modèle.
L'exactitude est généralement utilisée pour: Première évaluation rapide : Pour se faire une idée rapide de la performance d'un modèle. Comparaison initiale : Pour comparer plusieurs modèles entre eux de manière rapide avant de procéder à des analyses plus détaillées.
Pour interpréter correctement l'exactitude, surtout dans des scénarios de données déséquilibrées, il est souvent recommandé de compléter cette métrique avec d'autres indicateurs de performance comme la précision (precision), le rappel (recall), ou le score F1.