Durée: 12 mois
Rubrique: Ingénieur IA
Les métriques de performance sont essentielles pour évaluer l'efficacité d'un modèle de Machine Learning. Elles permettent de quantifier la qualité de prédiction du modèle et de comparer différents modèles entre eux. Plusieurs métriques sont couramment utilisées dans la communauté du Machine Learning.
La précision est l'une des métriques les plus simples et les plus courantes. Elle est définie comme le rapport entre le nombre de prédictions correctes et le nombre total de prédictions. Formellement, si TP représente les vrais positifs et TN les vrais négatifs, ainsi que FP les faux positifs et FN les faux négatifs, alors la précision est calculée comme suit :
[ \text{Précision} = \frac{TP + TN}{TP + TN + FP + FN} ]
Le rappel et la précision sont particulièrement utiles dans le contexte des données déséquilibrées.
[ \text{Précision} = \frac{TP}{TP + FP} ]
[ \text{Rappel} = \frac{TP}{TP + FN} ]
L'F1Score est une métrique qui combine la précision et le rappel pour fournir une seule valeur, particulièrement utile lorsque l'on a un compromis entre précision et rappel. Il est défini comme :
[ \text{F1Score} = 2 \times \frac{\text{Précision} \times \text{Rappel}}{\text{Précision} + \text{Rappel}} ]
La courbe ROC (Receiver Operating Characteristic) est un graphique qui représente la performance d'un modèle de classification en fonction de sa sensibilité (rappel) et de sa spécificité. L'aire sous la courbe (AUC Area Under Curve) est un nombre compris entre 0 et 1 qui quantifie la capacité du modèle à distinguer entre les classes. Plus l'AUC est proche de 1, mieux c'est.
Il est crucial de choisir les bonnes métriques de performance en tenant compte du contexte et des objectifs du modèle. Par exemple, dans un contexte médical, le rappel pourrait être plus important que la précision, car les faux négatifs peuvent avoir des conséquences plus graves que les faux positifs.