Qualité de l'ajustement
From Wikipedia, the free encyclopedia
La qualité de l'ajustement d'un modèle statistique désigne le degré d'ajustement du modèle aux données observées. Les statistiques utilisées pour la mesure de la qualité d'ajustement quantifient le désaccord entre les valeurs observées et celles attendues selon un modèle donné[1]. Ces mesures sont souvent associées à un test permettant de rejeter ou non l'hypothèse selon laquelle les données suivent la loi de distribution du modèle testé. Par exemple, le Test du χ² donne à la fois une mesure du désaccord grâce à la valeur de la statistique χ2 (divisé par le nombre de degrés de liberté), mais il est aussi possible de calculer une valeur-p pour rejeter l'hypothèse avec un certain degré de confiance α si p ≤ 1-α.
En plus de son utilité pour tester la compatibilité entre des données et une certaine loi de distribution, elle est aussi utile pour quantifier le désaccord entre deux jeux de données afin de déterminer s'ils proviennent de la même loi de probabilité (e.g. test de Kolmogorov-Smirnov), ou encore dans le cadre d'une régression linéaire (e.g. coefficient de détermination pour la méthode des moindres carrés).
Tests de modélisation
Dans le cas où l'on souhaite tester la compatibilité de données observées avec un modèle décrit par une certaine distribution, plusieurs tests statistiques sont possibles:
- Critère d'information bayésien
- Critère d'information d'Akaike
- Test du χ²
- Test de Kolmogorov-Smirnov
- Test de Cramer-Von Mises
- Test du rapport de vraisemblance[2]
Les tests suivants sont des tests de normalité, c'est-à-dire qu'ils permettent spécifiquement d'évaluer si l'échantillon de données provient d'une population avec une distribution normale: