On suppose que pendant tout intervalle de temps ε s, supposé petit, un événement au plus peut se produire aléatoirement, indépendamment de ce qui s'est passé au préalable.
On étudie alors le nombre de tels événements qui surviennent pendant un temps T min.
En supposant qu'une statistique ayant été établie avec ces hypothèses, on a pu mesurer le nombre d'événements moyen N = 7.2 survenant pendant un intervalle de temps T = 60 min, on admet un débit moyen d'événements ou encore une fréquence moyenne : F = N / T ; soit ici : F min–1.
On étudie alors le nombre de tels événements survenant pendant le temps T = 60 min, qu'on découpe en n = 2000 tranches de même durée, d'où epsilon s.
Avec les définitions et hypothèses précédentes,
la variable aléatoire X donnant
le nombre d'événements survenus pendant le temps T suit
la loi binomiale :
Comme l'espérance de cette loi est E[X] = n · p et qu'elle représente le nombre moyen d'événements pendant la durée T, on en déduit : p = N / n soit ici p.
On peut montrer que dès que n est assez grand,
X suit approximativement
la loi de Poisson, c'est à dire que :
Alors on peut établir le tableau suivant, pour n variant de k_0 = 0 à k_1 = 20 par pas de dk = 1 :
On peut aussi faire évoluer ce tableau comparatif avec le script éditable suivant :
Comme le découpage est arbitraire, et qu'il faut admettre a priori un seul événement possible dans un intervalle de temps de ε s, on peut conclure que le passage à la limite sur n fournit effectivement la loi d'un processus dans mémoire.
Ainsi, lorsque la fréquence moyenne des événements est F min–1,
alors sur une période de T min,
la loi de probabilité de k événements est :
La loi de Poisson est fondamentale dans la théorie des files d 'attente.