La loi stable ou distribution de Lévy tronquée , nommée d'après le mathématicien Paul Lévy , est une loi de probabilité utilisée en mathématiques , physique et analyse quantitative (finance de marché ).
On dit qu'une variable aléatoire réelle
X
{\displaystyle X}
est de loi stable si elle vérifie une des 3 propriétés équivalentes suivantes :
Pour tous réels strictement positifs
A
{\displaystyle A}
et
B
{\displaystyle B}
, il existe un réel strictement positif
C
{\displaystyle C}
et un réel
D
{\displaystyle D}
tels que les variables aléatoires
A
X
1
+
B
X
2
{\displaystyle AX_{1}+BX_{2}}
et
C
X
+
D
{\displaystyle CX+D}
aient la même distribution, où
X
1
{\displaystyle X_{1}}
et
X
2
{\displaystyle X_{2}}
sont des copies indépendantes de
X
{\displaystyle X}
.
Pour tout entier
n
≥
2
{\displaystyle n\geq 2}
, il existe une constante strictement positive
C
n
{\displaystyle C_{n}}
et un réel
D
n
{\displaystyle D_{n}}
tels que les variables aléatoires
X
1
+
X
2
+
⋯
+
X
n
{\displaystyle X_{1}+X_{2}+\dots +X_{n}}
et
C
n
X
+
D
n
{\displaystyle C_{n}X+D_{n}}
aient la même distribution, où
X
1
,
X
2
,
…
,
X
n
{\displaystyle X_{1},X_{2},\dots ,X_{n}}
sont des copies indépendantes de
X
{\displaystyle X}
.
Il existe des réels
α
∈
(
0
,
2
]
{\displaystyle \alpha \in (0,2]}
,
σ
≥
0
{\displaystyle \sigma \geq 0}
,
β
∈
[
−
1
,
1
]
{\displaystyle \beta \in [-1,1]}
et
μ
∈
R
{\displaystyle \mu \in \mathbb {R} }
telles que la fonction caractéristique de
X
{\displaystyle X}
vérifie, pour tout
θ
∈
R
{\displaystyle \theta \in \mathbb {R} }
,
E
[
e
i
θ
X
]
=
{
exp
{
−
σ
α
|
θ
|
α
(
1
−
i
β
(
sgn
θ
)
tan
π
α
2
)
+
i
μ
θ
}
if
α
≠
1
,
exp
{
−
σ
|
θ
|
(
1
+
i
β
2
π
(
sgn
θ
)
ln
|
θ
|
)
+
i
μ
θ
}
if
α
=
1
,
{\displaystyle \mathbb {E} {\big [}e^{i\theta X}{\big ]}=\left\{{\begin{array}{lc}\exp {\big \{}-\sigma ^{\alpha }|\theta |^{\alpha }(1-i\beta (\operatorname {sgn} \theta )\tan {\frac {\pi \alpha }{2}})+i\mu \theta {\big \}}&{\text{if }}\alpha \neq 1,\\\\\exp {\big \{}-\sigma |\theta |(1+i\beta {\frac {2}{\pi }}(\operatorname {sgn} \theta )\ln |\theta |)+i\mu \theta {\big \}}&{\text{if }}\alpha =1,\end{array}}\right.}
où
sgn
θ
=
{
1
if
θ
>
0
,
0
if
θ
=
0
,
−
1
if
θ
<
0.
{\displaystyle \operatorname {sgn} {\theta }=\left\{{\begin{array}{lc}1&{\text{if }}\theta >0,\\0&{\text{if }}\theta =0,\\-1&{\text{if }}\theta <0.\end{array}}\right.}
Remarques :
Les paramètres
α
∈
(
0
,
2
]
{\displaystyle \alpha \in (0,2]}
,
σ
≥
0
{\displaystyle \sigma \geq 0}
,
β
∈
[
−
1
,
1
]
{\displaystyle \beta \in [-1,1]}
et
μ
∈
R
{\displaystyle \mu \in \mathbb {R} }
caractérisent la loi de
X
{\displaystyle X}
. On écrit alors
X
∼
S
α
(
σ
,
β
,
μ
)
{\displaystyle X\sim S_{\alpha }(\sigma ,\beta ,\mu )}
.
Le réel
α
{\displaystyle \alpha }
dans
(
0
,
2
]
{\displaystyle (0,2]}
est appelé paramètre de stabilité de
X
{\displaystyle X}
. Le réel positif
σ
{\displaystyle \sigma }
est appelé paramètre d'échelle de
X
{\displaystyle X}
.
Les coefficients
A
{\displaystyle A}
,
B
{\displaystyle B}
et
C
{\displaystyle C}
sont liés par la relation
C
α
=
A
α
+
B
α
{\displaystyle C^{\alpha }=A^{\alpha }+B^{\alpha }}
.
Pour tout
n
≥
2
{\displaystyle n\geq 2}
, on a
C
n
=
n
1
/
α
{\displaystyle C_{n}=n^{1/\alpha }}
.
Si
X
1
∼
S
α
(
σ
1
,
β
1
,
μ
1
)
{\displaystyle X_{1}\sim S_{\alpha }(\sigma _{1},\beta _{1},\mu _{1})}
et
X
2
∼
S
α
(
σ
2
,
β
2
,
μ
2
)
{\displaystyle X_{2}\sim S_{\alpha }(\sigma _{2},\beta _{2},\mu _{2})}
sont indépendantes, alors
X
1
+
X
2
∼
S
α
(
σ
,
β
,
μ
)
{\displaystyle X_{1}+X_{2}\sim S_{\alpha }(\sigma ,\beta ,\mu )}
avec
σ
=
(
σ
1
α
+
σ
2
α
)
1
/
α
,
β
=
β
1
σ
1
α
+
β
2
σ
2
α
σ
1
α
+
σ
2
α
,
and
μ
=
μ
1
+
μ
2
.
{\displaystyle \sigma =(\sigma _{1}^{\alpha }+\sigma _{2}^{\alpha })^{1/\alpha },\,\beta ={\frac {\beta _{1}\sigma _{1}^{\alpha }+\beta _{2}\sigma _{2}^{\alpha }}{\sigma _{1}^{\alpha }+\sigma _{2}^{\alpha }}},\,{\text{and }}\mu =\mu _{1}+\mu _{2}.}
Si
X
∼
S
α
(
σ
,
β
,
μ
)
{\displaystyle X\sim S_{\alpha }(\sigma ,\beta ,\mu )}
et
a
∈
R
{\displaystyle a\in \mathbb {R} }
, alors
X
+
a
∼
S
α
(
σ
,
β
,
μ
+
a
)
{\displaystyle X+a\sim S_{\alpha }(\sigma ,\beta ,\mu +a)}
.
Si
X
∼
S
α
(
σ
,
β
,
μ
)
{\displaystyle X\sim S_{\alpha }(\sigma ,\beta ,\mu )}
avec
α
∈
(
0
,
2
)
{\displaystyle \alpha \in (0,2)}
, alors
{
lim
n
→
∞
λ
α
P
(
X
>
λ
)
=
C
α
1
+
β
2
σ
α
,
lim
n
→
∞
λ
α
P
(
X
<
λ
)
=
C
α
1
−
β
2
σ
α
,
{\displaystyle \left\{{\begin{array}{l}\displaystyle \lim _{n\to \infty }\lambda ^{\alpha }\mathbb {P} (X>\lambda )=C_{\alpha }{\frac {1+\beta }{2}}\sigma ^{\alpha },\\\displaystyle \lim _{n\to \infty }\lambda ^{\alpha }\mathbb {P} (X<\lambda )=C_{\alpha }{\frac {1-\beta }{2}}\sigma ^{\alpha },\end{array}}\right.}
où
C
α
=
(
∫
0
+
∞
x
−
α
sin
x
d
x
)
−
1
{\displaystyle C_{\alpha }=\left(\int _{0}^{+\infty }x^{-\alpha }\sin x\,\mathrm {d} x\right)^{-1}}
.
Si
X
∼
S
α
(
σ
,
β
,
μ
)
{\displaystyle X\sim S_{\alpha }(\sigma ,\beta ,\mu )}
avec
α
∈
(
0
,
2
)
{\displaystyle \alpha \in (0,2)}
, alors
{
E
[
|
X
|
p
]
<
+
∞
if
p
∈
(
0
,
α
)
,
E
[
|
X
|
p
]
=
+
∞
if
p
≥
α
.
{\displaystyle \left\{{\begin{array}{ll}\mathbb {E} [|X|^{p}]<+\infty &{\text{if }}p\in (0,\alpha ),\\\mathbb {E} [|X|^{p}]=+\infty &{\text{if }}p\geq \alpha .\end{array}}\right.}
On dit que
X
{\displaystyle X}
est de loi symétrique
α
{\displaystyle \alpha }
-stable si en plus d'être
α
{\displaystyle \alpha }
-stable, les variables aléatoires
X
{\displaystyle X}
et
−
X
{\displaystyle -X}
sont identiquement distribuées.
X
{\displaystyle X}
est de loi symétrique
α
{\displaystyle \alpha }
-stable si, et seulement si,
X
∼
S
α
(
σ
,
0
,
0
)
{\displaystyle X\sim S_{\alpha }(\sigma ,0,0)}
. On note simplement dans ce cas
X
∼
S
α
S
(
σ
)
{\displaystyle X\sim S_{\alpha }S(\sigma )}
.
X
{\displaystyle X}
est de loi symétrique
α
{\displaystyle \alpha }
-stable si, et seulement si, sa fonction caractéristique vérifie pour tout
θ
∈
R
{\displaystyle \theta \in \mathbb {R} }
l'égalité
E
[
e
i
θ
X
]
=
e
−
σ
α
|
θ
|
α
{\displaystyle \mathbb {E} {\big [}e^{i\theta X}{\big ]}=e^{-\sigma ^{\alpha }|\theta |^{\alpha }}}
, où
σ
{\displaystyle \sigma }
est le paramètre d'échelle de
X
{\displaystyle X}
.
On dit qu'un vecteur aléatoire
X
=
(
X
1
,
…
,
X
d
)
{\displaystyle X=(X_{1},\dots ,X_{d})}
de
R
d
{\displaystyle \mathbb {R} ^{d}}
est de loi stable s'il vérifie une des 2 propriétés équivalentes suivantes :
Pour tous réels strictement positifs
A
{\displaystyle A}
et
B
{\displaystyle B}
, il existe un réel strictement positif
C
{\displaystyle C}
et un vecteur
D
{\displaystyle D}
de
R
d
{\displaystyle \mathbb {R} ^{d}}
tels que les vecteurs aléatoires
A
X
(
1
)
+
B
X
(
2
)
{\displaystyle AX^{(1)}+BX^{(2)}}
et
C
X
+
D
{\displaystyle CX+D}
aient la même distribution, où
X
(
1
)
{\displaystyle X^{(1)}}
et
X
(
2
)
{\displaystyle X^{(2)}}
sont des copies indépendantes de
X
{\displaystyle X}
.
Il existe une mesure finie
Γ
{\displaystyle \Gamma }
sur la sphère
S
d
{\displaystyle S_{d}}
de
R
d
{\displaystyle \mathbb {R} ^{d}}
et un vecteur
μ
0
∈
R
d
{\displaystyle \mu ^{0}\in \mathbb {R} ^{d}}
tels que la fonction caractéristique de
X
{\displaystyle X}
vérifie, pour tout
(
θ
1
,
…
,
θ
d
)
∈
R
d
{\displaystyle (\theta _{1},\dots ,\theta _{d})\in \mathbb {R} ^{d}}
,
E
[
e
i
∑
l
=
1
d
θ
l
X
l
]
=
{
exp
{
−
∫
S
d
|
<
θ
,
s
>
|
α
(
1
−
i
sgn
(
<
θ
,
s
>
)
tan
π
α
2
)
)
Γ
(
d
s
)
+
i
(
θ
,
μ
0
)
}
if
α
≠
1
,
exp
{
−
∫
S
d
|
<
θ
,
s
>
|
(
1
+
i
2
π
sgn
(
<
θ
,
s
>
)
ln
|
<
θ
,
s
>
|
)
Γ
(
d
s
)
+
i
(
θ
,
μ
0
)
}
if
α
=
1
,
{\displaystyle \mathbb {E} \left[e^{i\sum _{l=1}^{d}\theta _{l}X_{l}}\right]=\left\{{\begin{array}{lc}\exp {\big \{}-\int _{S_{d}}|\!<\theta ,s>\!|^{\alpha }{\big (}1-i\operatorname {sgn}(\!<\theta ,s>\!)\tan {\frac {\pi \alpha }{2}}){\big )}\Gamma (\mathrm {d} s)+i(\theta ,\mu ^{0}){\big \}}&{\text{if }}\alpha \neq 1,\\\\\exp {\big \{}-\int _{S_{d}}|\!<\theta ,s>\!|{\big (}1+i{\frac {2}{\pi }}\operatorname {sgn}(\!<\theta ,s>\!)\ln |\!<\theta ,s>\!|{\big )}\Gamma (\mathrm {d} s)+i(\theta ,\mu ^{0}){\big \}}&{\text{if }}\alpha =1,\end{array}}\right.}
où
<
⋅
,
⋅
>
{\displaystyle <\cdot ,\cdot >}
est le produit scalaire classique sur
R
d
{\displaystyle \mathbb {R} ^{d}}
.
Remarques :
La paire
(
Γ
,
μ
0
)
{\displaystyle (\Gamma ,\mu ^{0})}
est unique.
Le réel
α
{\displaystyle \alpha }
est appelé paramètre de stabilité de
X
{\displaystyle X}
.
Les coefficients
A
{\displaystyle A}
,
B
{\displaystyle B}
et
C
{\displaystyle C}
sont liés par la relation
C
α
=
A
α
+
B
α
{\displaystyle C^{\alpha }=A^{\alpha }+B^{\alpha }}
.
On dit que
X
{\displaystyle X}
est de loi symétrique
α
{\displaystyle \alpha }
-stable si en plus d'être
α
{\displaystyle \alpha }
-stable, les variables aléatoires
X
{\displaystyle X}
et
−
X
{\displaystyle -X}
sont identiquement distribuées. Dans ce cas, sa fonction caractéristique est donnée, pour tout
(
θ
1
,
…
,
θ
d
)
∈
R
d
{\displaystyle (\theta _{1},\dots ,\theta _{d})\in \mathbb {R} ^{d}}
, par
E
[
e
i
∑
l
=
1
d
θ
l
X
l
]
=
exp
{
−
∫
S
d
|
<
θ
,
s
>
|
α
Γ
(
d
s
)
}
{\displaystyle \mathbb {E} {\big [}e^{i\sum _{l=1}^{d}\theta _{l}X_{l}}{\big ]}=\exp \left\{-\int _{S_{d}}|\!<\theta ,s>\!|^{\alpha }\Gamma (\mathrm {d} s)\right\}}
.
Si
X
=
(
X
1
,
…
,
X
d
)
{\displaystyle X=(X_{1},\dots ,X_{d})}
est un vecteur
α
{\displaystyle \alpha }
-stable, alors, pour tous réels
b
1
,
…
,
b
d
{\displaystyle b_{1},\dots ,b_{d}}
, la variable aléatoire réelle
∑
l
=
1
d
b
l
X
l
{\displaystyle \sum _{l=1}^{d}b_{l}X_{l}}
est
α
{\displaystyle \alpha }
-stable.
Si
α
∈
[
1
,
2
]
{\displaystyle \alpha \in [1,2]}
et, pour tous réels
b
1
,
…
,
b
d
{\displaystyle b_{1},\dots ,b_{d}}
, la variable aléatoire réelle
∑
l
=
1
d
b
l
X
l
{\displaystyle \sum _{l=1}^{d}b_{l}X_{l}}
est
α
{\displaystyle \alpha }
-stable, alors le vecteur
X
=
(
X
1
,
…
,
X
d
)
{\displaystyle X=(X_{1},\dots ,X_{d})}
est
α
{\displaystyle \alpha }
-stable.
Si, pour tous réels
b
1
,
…
,
b
d
{\displaystyle b_{1},\dots ,b_{d}}
, la variable aléatoire réelle
∑
l
=
1
d
b
l
X
l
{\displaystyle \sum _{l=1}^{d}b_{l}X_{l}}
est symétrique
α
{\displaystyle \alpha }
-stable, alors le vecteur
X
=
(
X
1
,
…
,
X
d
)
{\displaystyle X=(X_{1},\dots ,X_{d})}
est symétrique
α
{\displaystyle \alpha }
-stable.
On dit qu'une variable aléatoire complexe
Z
=
X
+
i
Y
{\displaystyle Z=X+iY}
est de loi
α
{\displaystyle \alpha }
-stable , si le vecteur
(
X
,
Y
)
{\displaystyle (X,Y)}
de
R
2
{\displaystyle \mathbb {R} ^{2}}
est
α
{\displaystyle \alpha }
-stable.
On dit de plus que la loi de
Z
{\displaystyle Z}
est isotrope si, pour tout
ϕ
∈
[
0
,
2
π
)
{\displaystyle \phi \in [0,2\pi )}
, les variables aléatoires
e
i
ϕ
Z
{\displaystyle e^{i\phi }Z}
et
Z
{\displaystyle Z}
sont identiquement distribuées. Dans ce cas, sa fonction caractéristique vérifie, pour tous complexes
θ
=
θ
1
+
i
θ
2
{\displaystyle \theta =\theta _{1}+i\theta _{2}}
,
E
[
e
i
(
θ
1
X
1
+
θ
1
X
1
)
]
=
e
−
σ
α
|
θ
|
α
{\displaystyle \mathbb {E} {\big [}e^{i(\theta _{1}X_{1}+\theta _{1}X_{1})}{\big ]}=e^{-\sigma ^{\alpha }|\theta |^{\alpha }}}
, où
σ
{\displaystyle \sigma }
est un réel positif appelé paramètre d'échelle de
Z
{\displaystyle Z}
.
Soit
α
∈
(
0
,
2
)
{\displaystyle \alpha \in (0,2)}
. On pose
a
(
α
)
=
(
∫
0
+
∞
x
−
α
sin
(
x
)
d
x
)
−
1
/
α
{\displaystyle a(\alpha )=\left(\int _{0}^{+\infty }x^{-\alpha }\sin(x)\,\mathrm {d} x\right)^{-1/\alpha }}
. Soit
{
Γ
m
:
m
∈
N
}
{\displaystyle \{\Gamma _{m}:m\in \mathbb {N} \}}
et
{
Z
m
:
m
∈
N
}
{\displaystyle \{Z_{m}:m\in \mathbb {N} \}}
deux processus mutuellement indépendants de variables aléatoires définis sur le même espace de probabilité
(
Ω
,
G
,
P
)
{\displaystyle (\Omega ,{\mathcal {G}},\mathbb {P} )}
satisfaisant les propriétés suivantes :
Les
Γ
m
{\displaystyle \Gamma _{m}}
,
m
∈
N
{\displaystyle m\in \mathbb {N} }
, sont les temps d'arrivée d'un processus de Poisson d'intensité 1 ; c'est-à-dire, pour tous
m
∈
N
{\displaystyle m\in \mathbb {N} }
, on a
Γ
m
=
∑
n
=
1
m
ν
n
{\displaystyle \Gamma _{m}=\sum _{n=1}^{m}\nu _{n}}
, où
(
ν
n
)
n
∈
N
{\displaystyle (\nu _{n})_{n\in \mathbb {N} }}
est une suite de variables aléatoires exponentielles de paramètre 1 indépendantes.
Les
Z
m
{\displaystyle Z_{m}}
,
m
∈
N
{\displaystyle m\in \mathbb {N} }
sont des variables aléatoires réelles, symétriques, indépendantes, identiquement distribuées et vérifiant
E
[
|
Z
m
|
α
]
<
+
∞
{\displaystyle \mathbb {E} [|Z_{m}|^{\alpha }]<+\infty }
.
Alors, la série
∑
m
=
1
+
∞
Z
m
Γ
m
−
1
/
α
{\displaystyle \sum _{m=1}^{+\infty }Z_{m}\Gamma _{m}^{-1/\alpha }}
converge presque sûrement. De plus, elle est de loi symétrique
α
{\displaystyle \alpha }
-stable et son paramètre d'échelle
σ
{\displaystyle \sigma }
vérifie
σ
=
a
(
α
)
−
1
(
E
[
|
Z
1
|
α
]
)
1
/
α
{\displaystyle \sigma =a(\alpha )^{-1}{\big (}\mathbb {E} [|Z_{1}|^{\alpha }]{\big )}^{1/\alpha }}
.
Soit
α
∈
(
0
,
2
)
{\displaystyle \alpha \in (0,2)}
. On pose
a
(
α
)
=
(
∫
0
+
∞
x
−
α
sin
(
x
)
d
x
)
−
1
/
α
{\displaystyle a(\alpha )=\left(\int _{0}^{+\infty }x^{-\alpha }\sin(x)\,\mathrm {d} x\right)^{-1/\alpha }}
. Soit
{
Γ
m
:
m
∈
N
}
{\displaystyle \{\Gamma _{m}:m\in \mathbb {N} \}}
et
{
Z
m
:
m
∈
N
}
{\displaystyle \{Z_{m}:m\in \mathbb {N} \}}
deux processus mutuellement indépendants de variables aléatoires définis sur le même espace de probabilité
(
Ω
,
G
,
P
)
{\displaystyle (\Omega ,{\mathcal {G}},\mathbb {P} )}
satisfaisant les propriétés suivantes :
Les
Γ
m
{\displaystyle \Gamma _{m}}
,
m
∈
N
{\displaystyle m\in \mathbb {N} }
, sont les temps d'arrivée d'un processus de Poisson d'intensité 1.
Les
Z
m
{\displaystyle Z_{m}}
,
m
∈
N
{\displaystyle m\in \mathbb {N} }
, sont des variables aléatoires complexes, isotropes, indépendantes, identiquement distribuées et vérifiant
E
[
|
Re
(
Z
m
)
|
α
]
<
+
∞
{\displaystyle \mathbb {E} [|{\text{Re}}(Z_{m})|^{\alpha }]<+\infty }
, où
Re
(
Z
m
)
{\displaystyle {\text{Re}}(Z_{m})}
désigne la partie réelle de
Z
m
{\displaystyle Z_{m}}
.
Alors, la série
∑
m
=
1
+
∞
Z
m
Γ
m
−
1
/
α
{\displaystyle \sum _{m=1}^{+\infty }Z_{m}\Gamma _{m}^{-1/\alpha }}
converge presque sûrement. De plus, elle est de loi isotrope
α
{\displaystyle \alpha }
-stable et son paramètre d'échelle
σ
{\displaystyle \sigma }
vérifie
σ
=
a
(
α
)
−
1
(
E
[
|
Re
(
Z
1
)
|
α
]
)
1
/
α
{\displaystyle \sigma =a(\alpha )^{-1}{\big (}\mathbb {E} [|{{\text{Re}}(Z_{1})|}^{\alpha }]{\big )}^{1/\alpha }}
.
Elle a pour cas particuliers :
La loi de Lévy (paramètres α=1/2 et beta=1), définie par une formule analytique explicite.
La loi normale (paramètre α=2), définie par une formule analytique explicite.
La loi de Cauchy (paramètre α=1), définie par une formule analytique explicite.
Gnedenko et Kolmogorov ont établi une généralisation du théorème central limite selon laquelle la somme de variables aléatoires ayant des queues de distribution décroissantes selon 1/|x |α+1 avec 0 < α < 2 (ayant donc une variance infinie) tend vers une loi stable de paramètre α.
↑ a b et c (en) Samorodnitsky, G. and Taqqu, M. S., Stable Non-Gaussian Random Processes. Stochastic Models with Infinite Variance , Chapman and Hall, London, 1994 (ISBN 0-412-05171-0 )
↑ (en) Marcus, M. B. and Pisier, G., « Characterizations of almost surely continuous p-stable random Fourier series and strongly stationary processes », Acta Math. , 1984 , p. 245-301
↑ (en) Kôno, N. and Maejima, M., « Hölder continuity of sample paths of some self-similar stable processes », Tokyo Journal of Mathematics , 1991 , p. 93-100