En théorie des probabilités et en statistique , la loi de Wishart inverse , également appelée loi de Wishart inversée , est une loi de probabilité définie sur l'ensemble des matrices définies positives à coefficients réels.
Une variable qui suit une loi de Wishart inverse sera notée
X
∼
W
−
1
(
Ψ
,
ν
)
{\displaystyle \mathbf {X} \sim W^{-1}({\mathbf {\Psi } },\nu )}
et est définie par la loi de sa matrice inverse :
X
−
1
{\displaystyle \mathbf {X} ^{-1}}
suit une loi de Wishart
W
(
Ψ
−
1
,
ν
)
{\displaystyle W({\mathbf {\Psi } }^{-1},\nu )}
.
Densité
La densité de probabilité de la loi de Wishart inverse est :
|
Ψ
|
ν
2
2
ν
p
2
Γ
p
(
ν
2
)
|
X
|
−
ν
+
p
+
1
2
e
−
1
2
tr
(
Ψ
X
−
1
)
{\displaystyle {\frac {\left|{\mathbf {\Psi } }\right|^{\frac {\nu }{2}}}{2^{\frac {\nu p}{2}}\Gamma _{p}({\frac {\nu }{2}})}}\left|\mathbf {X} \right|^{-{\frac {\nu +p+1}{2}}}e^{-{\frac {1}{2}}\operatorname {tr} ({\mathbf {\Psi } }\mathbf {X} ^{-1})}}
où
X
{\displaystyle \mathbf {X} }
et
Ψ
{\displaystyle {\mathbf {\Psi } }}
sont des matrices définies positives
p
×
p
{\displaystyle p\times p}
et
Γ
p
{\displaystyle \Gamma _{p}}
est la fonction gamma multidimensionnelle .
Théorèmes
Loi de l'inverse d'une matrice de loi de Wishart
Si
A
∼
W
(
Σ
,
ν
)
{\displaystyle {\mathbf {A} }\sim W({\mathbf {\Sigma } },\nu )}
et
Σ
{\displaystyle {\mathbf {\Sigma } }}
est une matrice
p
×
p
{\displaystyle p\times p}
, alors
X
=
A
−
1
{\displaystyle \mathbf {X} ={\mathbf {A} }^{-1}}
est de loi de Wishart inverse :
X
∼
W
−
1
(
Σ
−
1
,
ν
)
{\displaystyle \mathbf {X} \sim W^{-1}({\mathbf {\Sigma } }^{-1},\nu )}
[ 2] .
Lois marginales et conditionnelles
Supposons que
A
∼
W
−
1
(
Ψ
,
ν
)
{\displaystyle {\mathbf {A} }\sim W^{-1}({\mathbf {\Psi } },\nu )}
est de loi de Wishart inverse. Séparons convenablement en deux matrices
A
{\displaystyle {\mathbf {A} }}
et
Ψ
{\displaystyle {\mathbf {\Psi } }}
:
A
=
[
A
11
A
12
A
21
A
22
]
,
Ψ
=
[
Ψ
11
Ψ
12
Ψ
21
Ψ
22
]
{\displaystyle {\mathbf {A} }={\begin{bmatrix}\mathbf {A} _{11}&\mathbf {A} _{12}\\\mathbf {A} _{21}&\mathbf {A} _{22}\end{bmatrix}},\;{\mathbf {\Psi } }={\begin{bmatrix}\mathbf {\Psi } _{11}&\mathbf {\Psi } _{12}\\\mathbf {\Psi } _{21}&\mathbf {\Psi } _{22}\end{bmatrix}}}
où
A
i
j
{\displaystyle {\mathbf {A} _{ij}}}
et
Ψ
i
j
{\displaystyle {\mathbf {\Psi } _{ij}}}
sont des matrices
p
i
×
p
j
{\displaystyle p_{i}\times p_{j}}
, alors on obtient
i)
A
11
{\displaystyle {\mathbf {A} _{11}}}
est indépendant de
A
11
−
1
A
12
{\displaystyle {\mathbf {A} }_{11}^{-1}{\mathbf {A} }_{12}}
et de
A
22
⋅
1
{\displaystyle {\mathbf {A} }_{22\cdot 1}}
, où
A
22
⋅
1
=
A
22
−
A
21
A
11
−
1
A
12
{\displaystyle {\mathbf {A} _{22\cdot 1}}={\mathbf {A} }_{22}-{\mathbf {A} }_{21}{\mathbf {A} }_{11}^{-1}{\mathbf {A} }_{12}}
est le complément de Schur de
A
11
{\displaystyle {\mathbf {A} _{11}}}
dans
A
{\displaystyle {\mathbf {A} }}
;
ii)
A
11
∼
W
−
1
(
Ψ
11
,
ν
−
p
2
)
{\displaystyle {\mathbf {A} _{11}}\sim W^{-1}({\mathbf {\Psi } _{11}},\nu -p_{2})}
;
iii)
A
11
−
1
A
12
|
A
22
⋅
1
∼
M
N
p
1
×
p
2
(
Ψ
11
−
1
Ψ
12
,
A
22
⋅
1
⊗
Ψ
11
−
1
)
{\displaystyle {\mathbf {A} }_{11}^{-1}{\mathbf {A} }_{12}|{\mathbf {A} }_{22\cdot 1}\sim MN_{p_{1}\times p_{2}}({\mathbf {\Psi } }_{11}^{-1}{\mathbf {\Psi } }_{12},{\mathbf {A} }_{22\cdot 1}\otimes {\mathbf {\Psi } }_{11}^{-1})}
, où
M
N
p
×
q
(
⋅
,
⋅
)
{\displaystyle MN_{p\times q}(\cdot ,\cdot )}
est la loi normale matricielle ;
iv)
A
22
⋅
1
∼
W
−
1
(
Ψ
22
⋅
1
,
ν
)
{\displaystyle {\mathbf {A} }_{22\cdot 1}\sim W^{-1}({\mathbf {\Psi } }_{22\cdot 1},\nu )}
Moments
Cette section est basée sur l'article [Press, 1982][ 3] , après avoir reparamétré le degré de liberté pour être consistent avec la définition de la densité donnée ci-dessus.
La moyenne est[ 2] :
E
(
X
)
=
Ψ
ν
−
p
−
1
.
{\displaystyle E(\mathbf {X} )={\frac {\mathbf {\Psi } }{\nu -p-1}}.}
La variance de chaque élément de
X
{\displaystyle \mathbf {X} }
est :
Var
(
x
i
j
)
=
(
ν
−
p
+
1
)
ψ
i
j
2
+
(
ν
−
p
−
1
)
ψ
i
i
ψ
j
j
(
ν
−
p
)
(
ν
−
p
−
1
)
2
(
ν
−
p
−
3
)
{\displaystyle \operatorname {Var} (x_{ij})={\frac {(\nu -p+1)\psi _{ij}^{2}+(\nu -p-1)\psi _{ii}\psi _{jj}}{(\nu -p)(\nu -p-1)^{2}(\nu -p-3)}}}
a variance de la diagonale utile la même formule que ci-dessus avec
i
=
j
{\displaystyle i=j}
, ce qui se simplifie en :
Var
(
x
i
i
)
=
2
ψ
i
i
2
(
ν
−
p
−
1
)
2
(
ν
−
p
−
3
)
.
{\displaystyle \operatorname {Var} (x_{ii})={\frac {2\psi _{ii}^{2}}{(\nu -p-1)^{2}(\nu -p-3)}}.}
Liens avec d'autres lois
Une version unidimensionnelle de la loi de Wishart inverse est la loi inverse-gamma . Avec
p
=
1
{\displaystyle p=1}
, c'est-à-dire unidimensionnel,
α
=
ν
/
2
{\displaystyle \alpha =\nu /2}
,
β
=
Ψ
/
2
{\displaystyle \beta =\mathbf {\Psi } /2}
et
x
=
X
{\displaystyle x=\mathbf {X} }
, la densité de probabilité de la loi de Wishart inverse devient
p
(
x
|
α
,
β
)
=
β
α
x
−
α
−
1
exp
(
−
β
/
x
)
Γ
1
(
α
)
.
{\displaystyle p(x|\alpha ,\beta )={\frac {\beta ^{\alpha }\,x^{-\alpha -1}\exp(-\beta /x)}{\Gamma _{1}(\alpha )}}.}
c'est-à-dire, la loi inverse-gamma où
Γ
1
(
⋅
)
{\displaystyle \Gamma _{1}(\cdot )}
est la fonction gamma classique.
La loi de Wishart inverse est un cas particulier de la loi gamma inverse multidimensionnelle .
Références
↑ A. O'Hagan, and J. J. Forster, Kendall's Advanced Theory of Statistics : Bayesian Inference , vol. 2B, Arnold, 2004 , 2e éd. (ISBN 0-340-80752-0 )
↑ a et b Kanti V. Mardia, J. T. Kent and J. M. Bibby, Multivariate Analysis , Academic Press , 1979 (ISBN 0-12-471250-9 )
↑ Press, S. J. (1982) "Applied Multivariate Analysis", 2nd ed. (Dover Publications, New York)