Quotient de Rayleigh

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher

Le quotient de Rayleigh est un nombre réel caractérisant l'effet d'une matrice symétrique (respectivement hermitienne) sur un vecteur, et offrant les deux propriétés fondamentales suivantes :

  • le quotient de Rayleigh atteint un extremum relatif pour les vecteurs propres de la matrice
  • l’application du quotient de Rayleigh à un vecteur propre donne la valeur propre correspondante.

Ces deux propriétés peuvent servir à déterminer numériquement les Valeur propre, vecteur propre et espace propre d'un opérateur hermitien ou symétrique.

Le quotient de Rayleigh, dont la propriété d'extremum peut être reliée au principe du minimum de l'énergie potentielle en mécanique, a été étudié pour la première fois par Rayleigh (1877). Walter Ritz reprit l'idée en 1909 pour en faire la base d’une méthode d’approximation variationnelle.

Définitions et propriétés caractéristiques[modifier | modifier le code]

En mathématiques, pour une matrice hermitienne A à coefficients complexes et un vecteur x non nul, on appelle quotient de Rayleigh R(A, x) le scalaire :

R(A,x) = \frac{x^{*} A x}{x^{*} x}.

x^{*} désigne le vecteur adjoint de x, c'est-à-dire le conjugué du vecteur transposé.

Pour des matrices et des vecteurs à coefficients réels, le caractère hermitien se traduit par la caractère symétrique, et il faut substituer au vecteur adjoint x^{*} la transposée familière x'. Notons que

pour tout nombre réel c, R(A, c x) = R(A,x).

Rappelons également que les valeurs propres d'une matrice symétrique (respectivement hermitienne) sont toutes réelles. On peut montrer[1] que, sous ces conditions,

  1. le quotient de Rayleigh atteint un minimum \lambda_{\text{min}} (qui n'est autre que la plus petite valeur propre de A) lorsque x est un vecteur propre v_{\text{min}} associé à cette valeur.
  2. En outre, R(A, x) \leq \lambda_{\text{max}} et R(A, v_{\text{max}}) = \lambda_{\text{max}}. Le quotient de Rayleigh, combiné au théorème du minimax, permet de déterminer une à une toutes les valeurs propres d'une matrice. On peut également l'employer pour calculer une valeur approchée d'une valeur propre à partir d'une approximation d'un vecteur propre. Ces idées forment d'ailleurs la base de l’algorithme d’itération de Rayleigh.

Cas particulier des matrices de covariance[modifier | modifier le code]

On peut factoriser une matrice de covariance \Sigma sous la forme A' A. Les valeurs propres d'une telle matrice sont positives, car :

\Sigma v_i = \lambda _i v_i
A' A v_i = \lambda _i v_i
v_i' A' A v_i = v_i' \lambda _i v_i
 \left\| A v_i \right\|^2 = \lambda _i \left\| v_i \right\|^2
 \lambda _i = \frac{\left\| A v_i \right\|^2}{\left\| v_i \right\|^2} \geq 0.

Les vecteurs propres sont deux à deux orthogonaux :

\Sigma v_i = \lambda _i v_i
v _j' \Sigma v_i = \lambda _i v_j' v_i
(\Sigma v_j )' v_i = \lambda _i v_j' v_i
\lambda _j v_j ' v_i = \lambda _i v_j' v_i
(\lambda _j - \lambda _i) v_j ' v_i = 0
v_j ' v_i = 0 (pour des valeurs propres différentes ; en cas de multiplicité, la base de Im(\Sigma) peut être orthogonalisée).

Les vecteurs propres formant une base, on peut exprimer le quotient de Rayleigh en fonction des valeurs propres en décomposant un vecteur quelconque x sur cette base des vecteurs propres :

x = \sum _{i=1} ^n \alpha _i v_i
\rho = \frac{x' A' A x}{x' x}
\rho = \frac{(\sum _{j=1} ^n \alpha _j v_j)' A' A (\sum _{i=1} ^n \alpha _i v_i)}{(\sum _{j=1} ^n \alpha _j v_j)' (\sum _{i=1} ^n \alpha _i v_i)}

relation qui, de par l’orthogonalité des vecteurs propres, devient :

\rho = \frac{\sum _{i=1} ^n \alpha _i ^2 \lambda _i}{\sum _{i=1} ^n \alpha _i ^2}.

Si un vecteur x rend maximal le scalaire \rho, alors tout vecteur k . x (k \ne 0) produira également ce maximum : il suffit donc de rechercher le vecteur propre de norme égale à 1 ; on peut donc imposer \textstyle\sum _{i=1} ^n \alpha _i ^2 = 1.

Par la relation ci-dessus, il apparaît que la recherche d'un vecteur propre se ramène à la recherche d'un extremum de Lagrange, à savoir \textstyle\sum _{i=1} ^n \alpha _i ^2 \lambda _i \rightarrow \max sous la contrainte \textstyle<\sum _{i=1} ^n \alpha _i ^2 = 1.

Puisque toutes les valeurs propres sont positives, le problème est convexe et le maximum est atteint à la frontière du domaine, à savoir quand \alpha _1 = 1 et \forall i > 1, \alpha _i = 0 (en supposant que les valeurs propres soit numérotées par ordre de valeur décroissante).

On aboutit au même résultat par la méthode des multiplicateur de Lagrange. Le problème consiste alors à déterminer les points critiques de la fonction

\rho(x) = x^T\Sigma x , sous la contrainte \|x\|^2 = x^Tx = 1.

c’est-à-dire trouver les points critiques de

\mathcal{L}(x) = x^T\Sigma x  -\lambda (x^Tx - 1) ,

\lambda est un multiplicateur de Lagrange. Les points stationnaires de \mathcal{L}(x) surviennent pour

\frac{\mathrm d\mathcal{L}(x)}{\mathrm dx} = 0 \Longrightarrow 2x^T\Sigma - 2\lambda x^T = 0 \Longrightarrow \Sigma x = \lambda x

et  \rho(x) = \frac{x^T \Sigma x}{x^T x} = \lambda \frac{x^Tx}{x^T x} = \lambda.

Par conséquent, les vecteurs propres x_1 ... x_n de \Sigma ne sont autre que les points critiques du quotient de Rayleigh et les valeurs propres correspondantes \lambda_1 ... \lambda_n sont les valeurs rendant \rho(x) stationnaire.

Cette propriété remarquable est à la base de l’analyse en composantes principales et des corrélations canoniques.

Méthode de Rayleigh-Ritz[modifier | modifier le code]

La Théorie de Sturm-Liouville a trait à l’action de l’application linéaire

L(y) = \frac{1}{w(x)}\left(-\frac{\mathrm d}{\mathrm dx}\left[p(x)\frac{\mathrm dy}{\mathrm dx}\right] + q(x)y\right)

sur l’espace préhilbertien des fonctions y(x) vérifiant des conditions aux limites particulières en x=a et b, muni du produit scalaire : \langle{y_1,y_2}\rangle = \int_a^b{w(x)y_1(x)y_2(x)}\mathrm dx.

Dans ce cas, le quotient de Rayleigh est

\rho(x) =\frac{\langle{y,Ly}\rangle}{\langle{y,y}\rangle} = \frac{\int_a^b{y(x)\left(-\frac{\mathrm d}{\mathrm dx}\left[p(x)\frac{\mathrm dy}{\mathrm dx}\right] + q(x)y(x)\right)}\mathrm dx}{\int_a^b{w(x)y(x)^2}\mathrm dx}.

On le présente parfois sous une forme équivalente, obtenue en découpant l'intégrale du numérateur et en intégrant par parties :

\rho(x) =\frac{\langle{y,Ly}\rangle}{\langle{y,y}\rangle} = \frac{\int_a^b{y(x)\left(-\frac{\mathrm d}{\mathrm dx}\left[p(x)y'(x)\right]\right)}\mathrm dx + \int_a^b{q(x)y(x)^2}\mathrm dx}{\int_a^b{w(x)y(x)^2}\mathrm dx}
= \frac{-y(x)\left[p(x)y'(x)\right]|_a^b + \int_a^b{y'(x)\left[p(x)y'(x)\right]}\mathrm dx + \int_a^b{q(x)y(x)^2}\mathrm dx}{\int_a^b{w(x)y(x)^2}\mathrm dx}
= \frac{-p(x)y(x)y'(x)|_a^b + \int_a^b\left[p(x)y'(x)^2 + q(x)y(x)^2\right]\mathrm dx}{\int_a^b{w(x)y(x)^2}\mathrm dx}.

Pour déterminer une solution approchée \bar y (x) de l’équation

-\frac{\mathrm d}{\mathrm dx}\left[p(x)\frac{\mathrm dy}{\mathrm dx}\right] + q(x)y = 0

vérifiant les conditions aux limites, on choisit un certain nombre de fonctions u_1, u_2, ..., u_p vérifiant elles-mêmes les conditions aux limites, et on cherche la solution approchée comme une combinaison linéaire des p modes retenus : \bar y (x) = \textstyle\sum_{i=1}^p \alpha_i u_i(x). Les coefficients inconnus \alpha_i s’obtiennent en écrivant la stationnarité du quotient de Rayleigh : \tfrac{\partial \rho}{\partial \alpha_i}=0, qui détermine p équations linéaires d'inconnues (\alpha_i)_{i=1...p}

Généralisation[modifier | modifier le code]

On peut étendre la notion de quotient de Rayleigh à deux matrices symétriques définies positives réelles (A, B), et à un vecteur non-nul x, selon :

R(A,B; x) := \frac{x^T A x}{x^T B x}.

Ce « quotient de Rayleigh généralisé » se réduit au quotient de Rayleigh R(D, Cx) par la transformation D = C^{-T} A C^{-1}C est la factorisation de Cholesky de la matrice B.

Notes et références[modifier | modifier le code]

  1. Cf. par ex. Ciarlet pp.12-13.

Voir aussi[modifier | modifier le code]

Articles connexes[modifier | modifier le code]

Bibliographie[modifier | modifier le code]

  • Philippe Ciarlet, Introduction à l’analyse numérique matricielle et à l’optimisation, Masson, coll. « Math. Appl. pour la Maîtrise »,‎ 1985 (réimpr. 2001) (ISBN 2-225-68893-1)
  • P. Lascaux, R. Théodor, Analyse numérique matricielle appliquée à l’art de l’ingénieur, vol. I, Masson,‎ 1985 (réimpr. 2001) (ISBN 2-225-84546-8), « 1.4 - Forme hermitienne associée... »
  • John William Strutt Rayleigh, The theory of Sound, McMillan Co.,‎ 1877 (réimpr. 1945), 2 vol. (ISBN 0-486-60292-3), « IV-Vibrating systems in general », p. 106-129