Règle de Cramer

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
Page d'aide sur l'homonymie Pour les articles homonymes, voir Cramer.

La règle de Cramer (ou méthode de Cramer) est un théorème en algèbre linéaire qui donne la solution d'un système de Cramer, c'est-à-dire un système d'équations linéaires avec autant d'équations que d'inconnues et dont le déterminant de la matrice de coefficients est non nul, en termes de quotients de déterminants.

En calcul, la méthode est moins efficace que la méthode de résolution de Gauss pour des grands systèmes (à partir de 4 équations) dont les coefficients dans le premier membre sont explicitement donnés. Cependant, elle est d'importance théorique pour la raison qu'elle donne une expression explicite pour la solution du système, et elle s'applique dans des systèmes où par exemple les coefficients du premier membre dépendent de paramètres, ce qui peut rendre la méthode de Gauss inappliquable.

Elle est nommée d'après Gabriel Cramer, mathématicien suisse (1704-1752).

Description[modifier | modifier le code]

Le système de n équations à n inconnues, de forme générale :

\left\{\begin{matrix} 
a_{1,1}x_1+a_{1,2}x_2+...+a_{1,n}x_n = \lambda_1 \\ 
a_{2,1}x_1+a_{2,2}x_2+...+a_{2,n}x_n = \lambda_2 \\ 
\vdots \\
a_{n,1}x_{1}+a_{n,2}x_{2}+...+a_{n,n}x_n = \lambda_n
\end{matrix}\right.

est représenté sous la forme d'un produit matriciel :

\begin{pmatrix} 
a_{1,1} & a_{1,2} & \cdots & a_{1,n}\\ 
a_{2,1} & a_{2,2} & \cdots & a_{2,n}\\ 
\vdots & \vdots & \ddots & \vdots\\ 
a_{n,1} & a_{n,2} & \cdots & a_{n,n}\\ 
\end{pmatrix} \times 
\begin{pmatrix} 
x_1\\ 
x_2\\ 
\vdots\\ 
x_n\\ 
\end{pmatrix} = \begin{pmatrix} 
\lambda_1\\ 
\lambda_2\\ 
\vdots\\ 
\lambda_n\\ 
\end{pmatrix} \Leftrightarrow A \cdot X=\Lambda

où la matrice A, carrée, contient les coefficients des inconnues, le vecteur colonne X contient ces inconnues et le vecteur colonne \Lambda contient les membres de droite des équations du système.

Le théorème affirme alors que le système admet une unique solution si et seulement si sa matrice A est inversible (déterminant non nul), et cette solution est alors donnée par :

x_k = { \det(A_k) \over \det(A) }

A_k est la matrice carrée formée en remplaçant la k-ième colonne de A par le vecteur colonne \Lambda.

A_k = ( a_{k|i,j} ) \mbox{ avec } a_{k|i,j} = \left\{\begin{matrix} a_{i,j} & \mbox{si } j \ne k \\ \lambda_{i} & \mbox{si }j = k\end{matrix}\right.

Un système carré (i.e. avec autant d'équations que d'inconnues) est dit de Cramer si le déterminant de sa matrice est non nul.

Lorsque le système (toujours carré) n'est pas de Cramer (i.e. lorsque le déterminant de A est nul) :

  • si le déterminant d'une des matrices A_k est non nul, alors le système n'a pas de solution ;
  • la réciproque est fausse : il peut arriver que le système n'ait pas de solution bien que les déterminants \det(A_k) soient tous nuls. Un exemple en est donné par :
\left\{\begin{matrix}x+y+z=1\\
x+y+z=2\\
x+y+z=3\end{matrix}\right.

Pour plus de précisions, voir Théorème de Rouché-Fontené.

Le nombre d'opérations à effectuer pour résoudre un système linéaire à l'aide de la règle de Cramer dépend de la méthode utilisée pour calculer le déterminant. Une méthode efficace pour les calculs de déterminant est l'élimination de Gauss-Jordan (complexité polynomiale). Cependant, la règle de Cramer demandera d'avoir recours à un nombre de calculs de déterminants égal à la taille du système, une élimination de Gauss-Jordan appliquée directement au système résout donc le problème plus efficacement.

Démonstration[modifier | modifier le code]

Soit un système d'équations linéaires écrit sous la forme matricielle :

AX=\Lambda

Si le déterminant de la matrice carrée A est non nul, alors la matrice A est inversible, et l'on peut calculer sa matrice inverse au moyen de la Formule de Laplace :

A^{-1}=\frac1{\det A} \, {}^t{{\rm com} A}

{}^t{{\rm com} A} est la comatrice de la matrice A. En multipliant les 2 membres de l'équation initiale par cette matrice inverse, on obtient alors l'unique solution du système :

X = A^{-1} \Lambda

Exprimons chacune des coordonnées du vecteur X, pour i variant de 1 à n :

x_i = \frac{\sum_{i=1}^{n} \lambda_{i} {\rm Cof}_{i,j}}{\det(A)}

La somme au numérateur est le développement en cofacteurs de \det(A_i) par rapport à sa i-ème colonne, où A_i est la matrice carrée formée en remplaçant la i-ième colonne de A par le vecteur colonne \Lambda.. Donc[1]

x_i = { \det(A_i) \over \det(A) }

Exemples[modifier | modifier le code]

Système d'ordre 2[modifier | modifier le code]

Si ad-bc\ne0, le système

\left\{\begin{matrix}
ax+by = e\\
cx+dy = f\end{matrix}\right.

a pour unique solution :

x = { \begin{vmatrix}e&b\\f&d\end{vmatrix} \over \begin{vmatrix}a&b\\c&d\end{vmatrix} } = { ed - bf \over ad - bc},\quad y = { \begin{vmatrix}a&e\\c&f\end{vmatrix} \over \begin{vmatrix}a&b\\c&d\end{vmatrix} } =  { af - ec \over ad - bc}.

Exemple numérique :

\left.\begin{matrix}
4x + 2y = 24\\
2x + 3y = 16\end{matrix}\right\}\Leftrightarrow\left\{\begin{matrix}x = {24 \cdot 3-16 \cdot 2 \over 8 } = {40 \over 8} = 5\\y = {4 \cdot 16-2 \cdot 24 \over 8} = {16 \over 8} = 2\end{matrix}\right.

Système d'ordre 3[modifier | modifier le code]

\left\{\begin{matrix}a_1x_1 + b_1x_2 + c_1x_3 = d_1\\
a_2x_1 + b_2x_2 + c_2x_3 = d_2\\
a_3x_1 + b_3x_2 + c_3x_3 = d_3\end{matrix}\right.

Posons :

A = \begin{pmatrix}a_1&b_1&c_1\\a_2&b_2&c_2\\a_3&b_3&c_3\end{pmatrix},\quad X= \begin{pmatrix}x_1\\x_2\\x_3\end{pmatrix}\quad\text{et}\quad
\Lambda = \begin{pmatrix} 
d_1\\ 
d_2\\ 
d_3
\end{pmatrix}.

Le système admet une solution unique si et seulement si \det(A) \ne 0 :

x_1 = \frac{\det(A_1)}{\det(A)} = \frac{\begin{vmatrix}d_1&b_1&c_1\\d_2&b_2&c_2\\d_3&b_3&c_3\end{vmatrix}}{\det(A)}
x_2 = \frac{\det(A_2)}{\det(A)} = \frac{\begin{vmatrix}a_1&d_1&c_1\\a_2&d_2&c_2\\a_3&d_3&c_3\end{vmatrix}}{\det(A)}
x_3 = \frac{\det(A_3)}{\det(A)} = \frac{\begin{vmatrix}a_1&b_1&d_1\\a_2&b_2&d_2\\a_3&b_3&d_3\end{vmatrix}}{\det(A)}

Ou plus simplement :

X=\begin{pmatrix}x_1\\x_2\\x_3\end{pmatrix} = \frac1{\det(A)} \cdot \begin{pmatrix}
\det(A_1)\\
\det(A_2)\\
\det(A_3)\end{pmatrix}.

Pour que le système n'admette aucune solution, il suffit que :

\det(A) = 0\quad\text{et}\quad\Big( \det(A_1) \ne 0\quad\text{ou}\quad\det(A_2) \ne 0\quad\text{ou}\quad\det(A_3) \ne 0 \Big)\,

Dans le cas

\det(A) = \det(A_1) = \det(A_2) = \det(A_3) = 0\,

on peut avoir soit une infinité de solutions, soit aucune.

Références[modifier | modifier le code]