Distance de Hellinger

Mesure utilisée en probabilités et statistiques From Wikipedia, the free encyclopedia

En théorie des probabilités, la distance de Hellinger entre deux mesures de probabilités et absolument continues par rapport à une troisième mesure , sert à quantifier les similarités entre les deux distributions. Par définition, le carré de la distance de Hellinger entre et est donné par :

et désignent respectivement les dérivées de Radon-Nykodym de et . Cette définition ne dépend pas de , si bien que la distance de Hellinger entre et ne change pas si est remplacée par une autre mesure de probabilité par rapport à laquelle et soient absolument continues.

Pour alléger l'écriture, la formule précédente est couramment écrite :

La distance de Hellinger ainsi définie vérifie :

Remarque : Certains auteurs ne font pas figurer le facteur 1/2 précédant l'intégrale dans cette définition.

Propriétés

  • La distance de Hellinger est une α-divergence de Amari[1], correspondant à la valeur α =0.

À ce titre c'est une f-divergence de Csiszár[2] et une divergence de Bregman[3].

Comme il s'agit de la seule distance (symétrique, auto-duale) de la classe des α-divergences, c'est la distance canonique de l'espace des distributions de la famille exponentielle, le système de coordonnées associé étant .

Autre conséquence, étant une α-divergence, la courbure locale (son Hessien en P) de la distance de Hellinger est égale à l'information de Fisher de la distribution P :

.

par la relation

.

Exemples

  • La distance de Hellinger entre deux lois normales et est donnée par
  • La distance de Hellinger entre deux lois exponentielles et est donnée par :

  • La distance de Hellinger entre deux lois de Poisson et est :
  • La distance de Hellinger entre deux lois bêta et vaut :

avec désignant la fonction bêta.

Bibliographie

Notes et références

Related Articles

Wikiwand AI