En théorie des probabilités , la fonction de masse [ 1] est la fonction qui donne la probabilité d'un résultat élémentaire d'une expérience. Elle se distingue de la densité de probabilité en ceci que les densités de probabilité ne sont définies que pour des variables aléatoires absolument continues , et que c'est leur intégrale sur un domaine qui a valeur de probabilité (et non leurs valeurs elles-mêmes).
Description mathématique
La loi de probabilité d'une variable aléatoire discrète. Le support est composé des singletons {1}, {3} et {7} et les probabilités associées sont respectivement 0,20, 0,50 et 0,30. Un ensemble ne contenant pas ces points se voit attribuer une probabilité nulle.
Soit
(
Ω
,
A
,
P
)
{\displaystyle (\Omega ,{\mathcal {A}},\mathbb {P} )}
un espace probabilisé.
On appelle fonction masse de
P
{\displaystyle \mathbb {P} }
, et on note
p
{\displaystyle p}
, la fonction de
Ω
{\displaystyle \Omega }
dans
R
+
{\displaystyle \mathbb {R} _{+}}
définie par :
∀
ω
∈
Ω
,
p
(
ω
)
=
{
P
(
{
ω
}
)
si
{
ω
}
∈
A
0
si
{
ω
}
∉
A
.
{\displaystyle \forall \omega \in \Omega ,\ p(\omega )={\begin{cases}\mathbb {P} (\{\omega \})&{\text{si}}\ \{\omega \}\in {\mathcal {A}}\\0&{\text{si}}\ \{\omega \}\notin {\mathcal {A}}.\end{cases}}}
Lorsque
P
{\displaystyle \mathbb {P} }
est discrète , pour tout
A
∈
A
{\displaystyle A\in {\mathcal {A}}}
:
P
(
A
)
=
∑
ω
∈
A
∩
Ω
a
p
(
ω
)
=
∑
ω
∈
Ω
a
p
(
ω
)
δ
ω
(
A
)
{\displaystyle \mathbb {P} (A)=\sum _{\omega \in A\cap \Omega _{a}}p(\omega )=\sum _{\omega \in \Omega _{a}}p(\omega )\delta _{\omega }(A)}
où
Ω
a
⊂
Ω
{\displaystyle \Omega _{a}\subset \Omega }
est l'ensemble des atomes de
P
{\displaystyle \mathbb {P} }
et
δ
ω
{\displaystyle \delta _{\omega }}
la mesure de Dirac au point
ω
{\displaystyle \omega }
.
Soit
(
Ω
,
A
,
P
)
{\displaystyle (\Omega ,{\mathcal {A}},\mathbb {P} )}
un espace probabilisé,
(
Y
,
B
)
{\displaystyle (Y,{\mathcal {B}})}
un espace probabilisable et
X
:
Ω
⟶
Y
{\displaystyle X:\Omega \longrightarrow Y}
une variable aléatoire.
On appelle fonction masse de
P
X
{\displaystyle \mathbb {P} _{X}}
, et on note
p
X
{\displaystyle p_{X}}
, la fonction de
Y
{\displaystyle Y}
dans
R
+
{\displaystyle \mathbb {R} _{+}}
définie par :
∀
x
∈
Y
,
p
X
(
x
)
=
{
P
X
(
{
x
}
)
si
{
x
}
∈
B
0
si
{
x
}
∉
B
=
{
P
X
(
{
x
}
)
si
x
∈
X
(
Ω
)
0
si
x
∉
X
(
Ω
)
.
{\displaystyle {\begin{aligned}\forall x\in Y,\ p_{X}(x)&={\begin{cases}\mathbb {P} _{X}(\{x\})&{\text{si}}\ \{x\}\in {\mathcal {B}}\\0&{\text{si}}\ \{x\}\notin {\mathcal {B}}\end{cases}}\\&={\begin{cases}\mathbb {P} _{X}(\{x\})&{\text{si}}\ x\in X(\Omega )\\0&{\text{si}}\ x\notin X(\Omega ).\end{cases}}\end{aligned}}}
Lorsque
X
{\displaystyle X}
est discrète , pour tout
B
∈
B
{\displaystyle B\in {\mathcal {B}}}
:
P
X
(
B
)
=
∑
x
∈
B
∩
Y
a
p
X
(
x
)
=
∑
x
∈
Y
a
p
X
(
x
)
δ
x
(
A
)
{\displaystyle \mathbb {P} _{X}(B)=\sum _{x\in B\cap Y_{a}}p_{X}(x)=\sum _{x\in Y_{a}}p_{X}(x)\delta _{x}(A)}
où
Y
a
⊂
Y
{\displaystyle Y_{a}\subset Y}
est l'ensemble des atomes de
X
{\displaystyle X}
et
δ
x
{\displaystyle \delta _{x}}
la mesure de Dirac au point
x
{\displaystyle \scriptstyle x}
.
Le théorème de transfert donne, pour toute fonction
φ
:
Y
⟶
R
{\displaystyle \varphi :Y\longrightarrow \mathbb {R} }
:
E
(
φ
(
X
)
)
=
∑
x
∈
Y
a
φ
(
x
)
p
X
(
x
)
.
{\displaystyle \mathbb {E} \left(\varphi (X)\right)=\sum _{x\in Y_{a}}\varphi (x)p_{X}(x).}
Pour une loi continue , la fonction de masse est la fonction nulle donc elle n'est pas pertinente. Si une loi continue n'est pas singulière (c'est-à-dire si elle est absolument continue ) on utilise sa densité de probabilité .
Exemple
Soit
X
{\displaystyle X}
une variable aléatoire identifiant le résultat d'un pile ou face à 0 pour pile et 1 pour face. On a :
Ω
=
{
p
i
l
e
,
f
a
c
e
}
{\displaystyle \Omega =\{\mathrm {pile} ,\mathrm {face} \}}
,
Y
=
R
{\displaystyle Y=\mathbb {R} }
(par exemple, l'important est que
Y
⊃
X
(
Ω
)
=
{
0
,
1
}
{\displaystyle Y\supset X(\Omega )=\{0,1\}}
puisque
X
:
Ω
⟶
Y
{\displaystyle X:\Omega \longrightarrow Y}
),
A
=
P
(
Ω
)
{\displaystyle {\mathcal {A}}={\mathcal {P}}(\Omega )}
(par exemple, l'important est que
A
{\displaystyle {\mathcal {A}}}
soit une tribu sur
Ω
{\displaystyle \Omega }
qui contienne au moins les événements physiquement possibles de l'expérience),
B
=
P
(
Y
)
{\displaystyle {\mathcal {B}}={\mathcal {P}}(Y)}
(par exemple, l'important est que
B
{\displaystyle {\mathcal {B}}}
soit une tribu sur
Y
{\displaystyle Y}
qui contienne au moins l'image directe par
X
{\displaystyle X}
des événements physiquement possibles).
Si on suppose que les événements
{
p
i
l
e
}
{\displaystyle \{\mathrm {pile} \}}
et
{
f
a
c
e
}
{\displaystyle \{\mathrm {face} \}}
ont la même probabilité, alors
P
(
{
p
i
l
e
}
)
=
P
(
{
f
a
c
e
}
)
=
0
,
5
{\displaystyle \mathbb {P} (\{\mathrm {pile} \})=\mathbb {P} (\{\mathrm {face} \})=0,5}
(car
P
(
Ω
)
=
1
{\displaystyle \mathbb {P} (\Omega )=1}
) et par conséquent
P
X
(
{
x
}
)
=
0
,
5
{\displaystyle \mathbb {P} _{X}(\{x\})=0,5}
pour tout
x
∈
X
(
Ω
)
{\displaystyle x\in X(\Omega )}
.
Ainsi la fonction de masse de
X
{\displaystyle X}
vaut :
∀
x
∈
Y
,
p
X
(
x
)
=
{
0
,
5
si
x
∈
X
(
Ω
)
,
0
si
x
∉
X
(
Ω
)
.
{\displaystyle \forall x\in Y,\ p_{X}(x)={\begin{cases}0,5&{\text{si}}\ x\in X(\Omega ),\\0&{\text{si}}\ x\notin X(\Omega ).\end{cases}}}
X
{\displaystyle X}
est une variable aléatoire discrète, sa loi de probabilité associée
P
X
{\displaystyle \mathbb {P} _{X}}
est la loi de Bernoulli de paramètre 0,5.
Bibliographie
Johnson, N.L., Kotz, S., Kemp A. (1993), Univariate Discrete Distributions (2nd Edition) . Wiley. (ISBN 0-471-54897-9 ) (p. 36)
Notes et références
Article connexe