Multinomiale ou polynomiale
Paramètres
n
>
0
{\displaystyle n>0}
nombre d'épreuves (entier)
p
1
,
…
p
m
{\displaystyle p_{1},\ldots p_{m}}
probabilités des événements (
Σ
p
i
=
1
{\displaystyle \Sigma p_{i}=1}
)
Support
N
i
∈
{
0
,
…
,
n
}
{\displaystyle N_{i}\in \{0,\dots ,n\}}
Σ
N
i
=
n
{\displaystyle \Sigma N_{i}=n\!}
Fonction de masse
n
!
n
1
!
⋯
n
m
!
p
1
n
1
⋯
p
m
n
m
{\displaystyle {\frac {n!}{n_{1}!\cdots n_{m}!}}p_{1}^{n_{1}}\cdots p_{m}^{n_{m}}}
Espérance
E
[
N
i
]
=
n
p
i
{\displaystyle E\left[N_{i}\right]=np_{i}}
Variance
V
a
r
(
N
i
)
=
n
p
i
(
1
−
p
i
)
{\displaystyle {\mathrm {Var} }(N_{i})=np_{i}(1-p_{i})}
C
o
v
(
N
i
,
N
j
)
=
−
n
p
i
p
j
{\displaystyle {\mathrm {Cov} }(N_{i},N_{j})=-np_{i}p_{j}}
(
i
≠
j
{\displaystyle i\neq j}
)
Fonction génératrice des moments
(
∑
i
=
1
m
p
i
e
t
i
)
n
{\displaystyle \left(\sum _{i=1}^{m}p_{i}e^{t_{i}}\right)^{n}}
modifier
Les lois binomiales concernent le nombre de succès dans n épreuves de Bernoulli indépendantes donnant chacune un résultat binaire, comme dans le jeu de pile ou face . Les lois multinomiales (aussi appelée distributions polynomiales [ 1] ) sont une généralisation de celles-ci, applicable par exemple à n jets d'un dé à six faces. Contrairement à ces exemples simples, les différentes possibilités ne sont généralement pas équiprobables.
Autre présentation de la loi binomiale Modifier
La fonction de probabilité d'une variable aléatoire binomiale K qui s'écrit
P
(
K
=
k
)
=
n
!
k
!
(
n
−
k
)
!
p
k
(
1
−
p
)
n
−
k
{\displaystyle \mathbb {P} (K=k)={\frac {n!}{k!(n-k)!}}p^{k}(1-p)^{n-k}}
peut se réécrire de manière symétrique en faisant intervenir deux variables dont la somme est égale à n :
N
1
=
K
,
N
2
=
n
−
K
,
p
1
=
p
,
p
2
=
1
−
p
{\displaystyle N_{1}=K,\quad N_{2}=n-K,\quad p_{1}=p,\quad p_{2}=1-p}
P
(
N
1
=
n
1
,
N
2
=
n
2
)
=
n
!
n
1
!
n
2
!
p
1
n
1
p
2
n
2
{\displaystyle \mathbb {P} (N_{1}=n_{1},N_{2}=n_{2})={\frac {n!}{n_{1}!n_{2}!}}p_{1}^{n_{1}}p_{2}^{n_{2}}}
Dans le cas multinomial à
m
{\displaystyle m\,}
résultats possibles au lieu de 2, les variables deviennent
N
i
{\displaystyle N_{i}\,}
,
i
=
{
1
,
…
,
m
}
{\displaystyle i=\{1,\ldots ,m\}\,}
et correspondent aux probabilités
p
i
{\displaystyle p_{i}\,}
,
i
=
{
1
,
…
,
m
}
{\displaystyle i=\{1,\ldots ,m\}\,}
avec les contraintes
∑
i
=
1
m
N
i
=
n
∑
i
=
1
m
p
i
=
1
{\displaystyle \sum _{i=1}^{m}N_{i}=n\quad \sum _{i=1}^{m}p_{i}=1}
La fonction de probabilité s'écrit alors, sous la condition portant sur la somme des variables :
P
(
N
1
=
n
1
,
…
N
m
=
n
m
)
=
n
!
n
1
!
…
n
m
!
p
1
n
1
…
p
m
n
m
{\displaystyle \mathbb {P} (N_{1}=n_{1},\ldots N_{m}=n_{m})={\frac {n!}{n_{1}!\ldots n_{m}!}}p_{1}^{n_{1}}\ldots p_{m}^{n_{m}}}
Chacune des variables reste une variable binomiale dont la moyenne et la variance sont
E
(
N
i
)
=
n
p
i
var
(
N
i
)
=
n
p
i
(
1
−
p
i
)
{\displaystyle \operatorname {E} (N_{i})=np_{i}\quad \operatorname {var} (N_{i})=np_{i}(1-p_{i})}
tandis que les covariances s'écrivent
cov
(
N
i
,
N
j
)
=
−
n
p
i
p
j
{\displaystyle \operatorname {cov} (N_{i},N_{j})=-np_{i}p_{j}\,}
Lorsque la variable aléatoire Ni devient assez grande, le théorème central limite montre qu'elle est raisonnablement approchée par une variable normale à laquelle correspond la variable centrée réduite
N
i
−
n
p
i
n
p
i
(
1
−
p
i
)
{\displaystyle {\frac {N_{i}-np_{i}}{\sqrt {np_{i}(1-p_{i})}}}}
.
Si ces variables étaient indépendantes,
∑
i
=
1
m
(
N
i
−
n
p
i
)
2
n
p
i
(
1
−
p
i
)
{\displaystyle \sum _{i=1}^{m}{\frac {(N_{i}-np_{i})^{2}}{np_{i}(1-p_{i})}}}
suivrait une loi du χ 2 à m degrés de liberté.
Du fait de la contrainte linéaire qui s'applique, la variable
∑
i
=
1
m
(
N
i
−
n
p
i
)
2
n
p
i
{\displaystyle \sum _{i=1}^{m}{\frac {(N_{i}-np_{i})^{2}}{np_{i}}}}
suit une loi du χ 2 à (m - 1) degrés de liberté.
Cette dernière remarque est à la base du test du χ² .
↑ Statistiques théorique et appliquée , Pierre Dagnélie , Editions de Boeck, Bruxelles 2013