Loi de Poisson
loi de probabilité discrète
From Wikipedia, the free encyclopedia
En théorie des probabilités et en statistiques, la loi de Poisson est une loi de probabilité discrète. Elle décrit le résultat d'un processus de comptage, par exemple le nombre d'occurrences d'un évènement par période de temps. Un exemple souvent donné dans un cadre pédagogique est le nombre de voitures passant un point particulier d'une route par minute écoulée. Elle s'applique lorsque les évènements sont indépendants les uns des autres, et est décrite par un seul paramètre, à savoir son espérance, c'est-à-dire le nombre moyen d'occurrences, noté, par convention, λ. La loi de Poisson est également pertinente pour décrire le nombre d'événements dans d'autres types d'intervalles, spatiaux plutôt que temporels, comme des segments, surfaces ou volumes. Les processus répondant à l'ensemble de ces conditions sont appelés processus de Poisson.
| Loi de Poisson | |
Fonction de masse Les fonctions de masse ne sont définies que pour les entiers k. | |
Fonction de répartition Les fonctions de répartition sont discontinues en chaque entier naturel. | |
| Paramètres | [note 1] |
|---|---|
| Support | |
| Fonction de masse | |
| Fonction de répartition | |
| Espérance | |
| Médiane | |
| Mode | si est un réel non entier,
et si est un nombre entier |
| Variance | |
| Asymétrie | |
| Kurtosis normalisé | |
| Entropie |
Pour grand :
|
| Fonction génératrice des moments | |
| Fonction caractéristique | |
| Fonction génératrice des probabilités | |
| modifier |
|
Elle doit son nom à Siméon Denis Poisson, qui l'a introduite en 1837. Elle trouve de nombreuses applications, qui vont de la physique (par exemple le nombre d'évènements de désintégration dans un échantillon radioactif) aux applications en économie ou en biologie.
Généralités
Origine historique

La loi de Poisson a été introduite en 1837 par le mathématicien français Siméon Denis Poisson[1], dans son ouvrage Recherches sur la probabilité des jugements en matière criminelle et en matière civile[2]. Le sujet principal de cet ouvrage consiste en certaines variables aléatoires qui dénombrent, entre autres choses, le nombre d'occurrences (parfois appelées « arrivées ») qui prennent place pendant un laps de temps donné[3].
Exemple intuitif
La loi de Poisson s'applique à un décompte d'évènements par intervalle de temps (ou parfois par intervalle de longueur, etc.). À titre d'exemple, on peut considérer le nombre de voitures franchissant un point donné sur une route par période de dix minutes. Le paramètre λ est le nombre moyen attendu. Pour que la loi soit applicable, on considère que les évènements (les passages des voitures) sont indépendants. La loi ne s'appliquera donc plus si des voitures roulent ensemble, en convoi, ou s'il y a un embouteillage : à ce moment les voitures interagissent et leur passage n'est plus indépendant[4].
- Le nombre de voitures qui passent sur le Golden Gate dans un laps de temps donné peut être modélisé par une loi de Poisson.
- 64 grains de riz ont été jetés sur une grille de 64 cases. Le nombre de grains par case suit approximativement une loi de Poisson de paramètre λ=1.
Fonction de masse
Si le nombre moyen d'occurrences dans un intervalle de temps fixé est λ, alors la probabilité qu'il existe exactement k occurrences (k étant un entier naturel, k = 0, 1, 2…) est[1] :
où :
- e est le nombre d'Euler (e ≈ 2,718)[1] ;
- k! est la factorielle de k. Il correspond à la valeur étudiée ;
- λ est un nombre réel strictement positif (λ > 0[note 1]). Il correspond à la moyenne théorique de l'échantillon et à sa variance[1].
On dit alors que X suit la loi de Poisson de paramètre λ, noté [5].
Par exemple, si un certain type d'événements se produit en moyenne 2,1 fois par an, pour étudier le nombre d'événements se produisant l'an prochain, on choisit comme modèle une loi de Poisson de paramètre λ = 2,1[1].
Obtention de l'expression de p(k)
Les hypothèses de départ sont qu'il y a en moyenne évènements dans une période de temps T = 1 (l'unité de temps est arbitraire, on peut donc ramener T à 1 par commodité), et que les évènements sont indépendants les uns des autres. À partir de ces hypothèses, il est possible de démontrer que la fonction de masse est celle donnée précédemment.
À partir de la loi binomiale
On peut trouver l'écriture de la loi de Poisson à partir de la loi binomiale. On divise la période en « petites » périodes égales . En première approximation, la probabilité d'avoir une occurrence de l'évènement pendant la période vaut . On peut alors approximer par une loi binomiale : c'est la probabilité d'obtenir succès sur les essais.
Par récurrence, comme solution d'une équation différentielle
La calcul des valeurs peut aussi se faire de manière inductive en étudiant sur l'intervalle [0 ; T] les fonctions Fk(t), qui donnent la probabilité que l'événement se produise k fois sur l'intervalle de temps [0 ; t]. En utilisant la récurrence et du calcul différentiel, on parvient à retrouver les formules précédentes[7].
Propriétés
Dans toute cette section, X est une variable aléatoire suivant une loi de Poisson de paramètre λ.
Moments et fonctions génératrices
Moments ordinaires
Le premier moment ordinaire, ou espérance, d'une loi de Poisson se calcule par la série entière de l'exponentielle[9],[10] :
Les trois moments ordinaires suivants de la loi de Poisson sont donnés par[11] :
On en déduit la variance et l'écart type[11] :
Plus généralement, le n-ième moment ordinaire d'une loi de Poisson de paramètre λ estoù S(n, k) est le nombre de Stirling de seconde espèce de paramètres n et k.
En particulier lorsque λ = 1, le n-ième moment de X correspond au n-ième nombre de Bell. En effet cela est une conséquence de la formule de Dobiński.
La borne suivante majore les moments d'une loi de Poisson[12] : Ils sont aussi reliés par la relation de récurrence[13] :
Moments centrés
Les quatre premiers moments centrés d'une loi de Poisson sont donnés par[11],[13] :
On en déduit l'asymétrie et le kurtosis normalisé :
On a la relation de récurrence[13] :
Moments factoriels
Le r-ième moment factoriel d'une loi de Poisson est
où désigne la factorielle décroissante.
Fonction génératrice des probabilités
La fonction génératrice des probabilités d'une loi de Poisson est[9] :
Fonction génératrice des moments
La fonction génératrice des moments d'une loi de Poisson est[14] :
On reconnaît la série génératrice des polynômes de Touchard : autrement dit, le -ième moment est .
Diagramme en bâtons
Comme toute loi de probabilité discrète, la fonction de masse d'une loi de Poisson peut être représentée par un diagramme en bâtons. Ci-dessous sont représentés les fonctions de masse (bleu) et les fonctions de répartition (rouge) des lois de Poisson de paramètres λ = 1 ; 2 ; 3,4 et 6.
Lorsque le paramètre λ de la loi de Poisson devient grand, (pratiquement lorsqu'il est supérieur à 5), son diagramme en bâton est proche de l'histogramme d'une loi normale d'espérance et de variance égales à λ (l'intervalle de classe étant égal à l'unité). Cette convergence était mise à profit, avant que les moyens informatiques ne se généralisent, pour utiliser la loi normale (pour lesquelles des tables de valeurs étaient largement disponibles) en lieu et place de la loi de Poisson dans certains tests[15].
Stabilité de la loi de Poisson par la somme
Si les variables {Xi}i=1,...,n sont indépendantes et suivent une loi de Poisson de paramètres respectifs λi, alors leur somme Y suit une loi de Poisson de paramètre la somme des λi[9] :
Bornes de queue
Un argument de type borne de Chernoff permet de déduire des bornes de queue suivantes, c'est-à-dire de valeurs majorant la probabilité que X s'éloigne de l'espérance au delà d'un x fixé[16] :
- pour tout x > λ et
- pour tout x < λ.
Ces bornes peuvent se réécrire de la manière suivante[17]
- pour tout x > 0 et
- pour tout λ > x > 0
où pour tout . Ces dernières bornes impliquent en particulier la borne suivante[17] (qui est plus faible mais plus agréable à manipuler)
- .
La borne supérieure donnée par Chernoff peut être améliorée d'un facteur 2 au moins[18]
- pour tout x > 0.
Il est à noter que la fonction h est liée à la divergence de Kullback-Leibler entre une loi de Poisson de paramètre x + λ et une loi de Poisson de paramètre λ. En effet on a la relation
Simulation
Un algorithme simple pour simuler la loi de Poisson consiste à utiliser le résultat suivant :
Théorème — Soit (Ei)i ≥ 1 une suite de variables aléatoires indépendantes et de même loi exponentielle de paramètre λ. On pose S1 = E1 et pour n ≥ 2, Sn = E1 + ... + En. On a alors :
La méthode de la transformée inverse permet de donner une façon simple de générer un tirage aléatoire suivant une loi exponentielle :
- Si U suit une loi uniforme sur [0 ; 1], alors E = –1λln(U) suit une loi exponentielle de paramètre λ.
En générant les par l'intermédiaire de variables aléatoires , On a ainsi et, en notant :
L'algorithme peut ainsi se simplifier en :
- k ← 0, p ← 1
- tant que p > e–λ
- on tire u selon un tirage aléatoire uniforme sur [0 ; 1]
- p ← p×u
- k ← k+1
- on renvoie k – 1
Application à des données empiriques
Test de Poisson
Une propriété fondamentale de la loi de Poisson est que sa moyenne est égale à sa variance. Ainsi, pour tester la conformité d'une série de données à la loi de Poisson, on calcule le rapport suivant, qui revient à faire le rapport variance/moyenne multiplié par N :
Sous l'hypothèse nulle, qui affirme que l'échantillon est tiré d'une loi de Poisson, D est proche de N : il suit une loi du χ² à N - 1 degrés de libertés[19]. Ce test permet de distinguer la loi de Poisson de lois de comptage de plus petite variance, comme la loi binomiale, ou de plus grande variance, comme la loi binomiale négative.
Estimation du paramètre λ
L'estimateur par maximum de vraisemblance du paramètre λ d'un échantillon issu d'une loi de Poisson est la moyenne empirique. C'est un estimateur convergent, sans biais, efficace, complet, exhaustif[20].
Régression de Poisson

La régression de Poisson est une démarche qui s'applique à une série de mesure empiriques. On dispose d'un ensemble de mesures, caractérisées chacun par une donnée de comptage et par la valeur d'une variable explicative comme, à titre d'exemple, une température (ou de plusieurs variables explicatives). Dans l'hypothèse où le comptage des évènements suit une loi de Poisson, la régression de Poisson détermine son paramètre lambda, comme fonction des variables explicatives[21].
Lien avec d'autres lois de probabilités
- Si X et Y sont deux variables aléatoires indépendantes qui suivent des lois de Poisson de paramètres respectifs λ et μ, alors X – Y est une variable aléatoire qui suit une loi de Skellam de paramètres (λ,μ)[22].
- Si X et Y sont deux variables aléatoires indépendantes qui suivent des lois de Poisson de paramètres λ et μ, alors la loi conditionnelle de X sachant X + Y est une loi binomiale.
- Pour de grandes valeurs de λ, on peut approcher la loi de Poisson par la loi normale de moyenne λ et de variance λ.
Le décompte des événements rares se fait souvent au travers d'une somme de variables de Bernoulli, la rareté des événements se traduisant par le fait que les paramètres de ces variables de Bernoulli sont petits (ainsi, la probabilité que chaque événement survienne est faible). Le lien entre la loi de Poisson et les événements rares peut alors s'énoncer ainsi :
Paradigme de Poisson — La somme d'un grand nombre de variables de Bernoulli indépendantes de petit paramètre converge en loi vers la loi de Poisson de paramètre
L'inégalité de Le Cam précise le paradigme de Poisson : soit un tableau de variables aléatoires de Bernoulli indépendantes, avec paramètres respectifs pk,n. On note
En particulier, si les deux conditions suivantes sont réunies :
alors Sn converge en loi vers la loi de Poisson de paramètre λ.
Dans l'énoncé du paradigme de Poisson, on fait deux hypothèses (vagues) sur les termes d'une somme Sn de variables de Bernoulli :
- les paramètres des variables de Bernoulli sont petits ; or les deux conditions ci-dessus entraînent que
ce qui reformule l'hypothèse « les paramètres des variables de Bernoulli sont petits » de manière plus précise ;
- il y a un grand nombre de termes ; or les deux conditions ci-dessus entrainent que le nombre de termes tend vers l'infini :
- Ce paradigme reste pertinent, dans certaines conditions, si l'on relaxe l'hypothèse d'indépendance[24].
- Un exemple frappant est le nombre de points fixes d'une permutation tirée au hasard.
- Un autre exemple est le nombre de points isolés du graphe aléatoire, dont la convergence vers la loi de Poisson a permis à Erdös et Rényi de démontrer, en 1960, le théorème double-exponentiel.
- Le cas particulier an = n, pk,n = λ/n, λn = λ, de l'inégalité de Le Cam, précise la rapidité de convergence de la loi binomiale de paramètres n et λ/n vers la loi de Poisson de paramètre λ.
Domaines d'application
Le domaine d'application de la loi de Poisson a été longtemps limité à celui des événements rares comme les suicides d'enfants, les arrivées de bateaux dans un port ou les accidents dus aux coups de pied de cheval dans les armées (étude de Ladislaus Bortkiewicz). Mais, depuis la fin du XXe siècle, son champ d'application s'est considérablement élargi[25].
En sciences physiques
La loi de Poisson est utilisée pour prédire la fréquence des évènements de désintégration radioactive d'un isotope instable, par exemple dans le contexte de la médecine nucléaire. Elle présente des limites dans le cas d'isotopes à courte durée de vie, mais constitue une excellente approximation dans presque tous les cas pratiques[26].
Dans les télécommunications
On l'utilise dans les télécommunications (pour compter le nombre de communications dans un intervalle de temps donné)[27], le contrôle de qualité statistique (nombre de défauts en maîtrise statistique des procédés)[28].
En sciences naturelles
En biologie, la loi de Poisson est utilisée pour prédire l’occurrence de mutations génétiques dans l'expérience de Luria et Delbrück[29], ou le nombre de potentiels d'actions émis par un neurone en neurosciences.
La loi de Poisson a longtemps été utilisée pour prédire l’occurrence des séismes mais elle n'est en réalité pas toujours applicable[30].
En finances et commerce
Elle est utilisée pour modéliser la probabilité de défaut d'un crédit, ou pour le yield management des compagnies aériennes[31].
Autres domaines
La loi de Poisson est également utilisable dans le cadre sportif. Elle peut être utilisée afin d'effectuer des prédictions statistiques sur le nombre de buts inscrits lors d'un match. Les probabilités issues de ce modèle permettent aux bookmakers de définir leurs cotes[32].
En littérature
Dans le roman de Thomas Pynchon L'Arc-en-ciel de la gravité, un des personnages, le statisticien Roger Mexico, utilise la loi de Poisson pour cartographier les zones d'impact des fusées allemandes V2 sur la ville de Londres durant la Seconde Guerre mondiale[33].
Dans le roman Jurassic Park de Michael Crichton, le mathématicien Ian Malcolm utilise la loi de Poisson pour modéliser la démographie d'un groupe de dinosaures et ainsi démontrer qu'il y a une anomalie dans le contrôle des naissances dans le parc[34].