Aller au contenu

Matrice tridiagonale

Un article de Wikipédia, l'encyclopédie libre.
Ceci est une version archivée de cette page, en date du 24 avril 2022 à 20:01 et modifiée en dernier par Anne Bauval (discuter | contributions). Elle peut contenir des erreurs, des inexactitudes ou des contenus vandalisés non présents dans la version actuelle.

En mathématiques, en algèbre linéaire, une matrice tridiagonale est une matrice dont tous les coefficients qui ne sont ni sur la diagonale principale, ni sur la diagonale juste au-dessus, ni sur la diagonale juste en dessous, sont nuls.

Par exemple, la matrice suivante est tridiagonale :

Définition

Une matrice , dont on note les coefficients ai,j, est dite tridiagonale si :

ai,j = 0 pour tous (i, j) tels que |ij| > 1,

autrement dit si c'est une matrice de Hessenberg à la fois supérieure et inférieure.

Propriétés

Si une matrice réelle tridiagonale A vérifie ak,k+1 × ak+1,k > 0 pour k = 1, 2, ..., n — c’est-à-dire si les signes de ses coefficients sont symétriques — alors elle est semblable à une matrice hermitienne, et donc toutes ses valeurs propres sont réelles. Cette dernière propriété est conservée si l'on considère plutôt la condition ak,k+1 × ak+1,k ≥ 0.

L'ensemble de toutes les matrices tridiagonales n × n est un espace vectoriel de dimension n + 2(n – 1) = 3n – 2 (le nombre de coefficients non nuls).

Utilisation

Algorithmes

De nombreux algorithmes d'algèbre linéaire nécessitent bien moins d'opérations lorsqu'on les exécute sur des matrices diagonales. Il est courant que ce gain se propage aux matrices tridiagonales.

Par exemple, le déterminant d'une matrice tridiagonale A n×n peut être calculé par la formule récursive suivante :

,

où l'on note det [A]{1,...,k} le k-ième mineur dominant, c'est-à-dire le déterminant de la matrice obtenue en ne gardant que les k premières lignes et colonnes de A. Le calcul du déterminant par cette méthode est linéaire en n pour les matrices tridiagonales, alors qu'il est en n3 dans le cas général.

Une transformation qui réduit une matrice quelconque à une matrice de Hessenberg réduira une matrice hermitienne à une matrice tridiagonale. Ainsi, de nombreux algorithmes de calcul des valeurs propres utilisent une étape de réduction sous la forme d'une matrice tridiagonale s'ils travaillent sur des matrices hermitiennes.

Mémoire

Une matrice tridiagonale peut être stockée de façon optimisée en utilisant une représentation particulière. Par exemple, la bibliothèque LAPACK enregistre une matrice non symétrique sous la forme de trois tableaux unidimensionnels, l'un contenant les coefficients diagonaux et les deux autres les éléments respectivement au-dessus et au-dessous de la diagonale.

Méthodes de résolution

Méthode numérique pour résoudre un système tridiagonal

Si l'on considère un système linéaire de la forme Ax = dA est une matrice tridiagonale, il est possible d'appliquer une méthode simplifiée reposant sur la décomposition LU sans stockage des matrices de la décomposition pour le résoudre numériquement[1]. Pour ce faire, on représente la matrice par :

On construit alors les coefficients de proche en proche :

.

Une fois ces coefficients formés, on peut trouver la solution x = (x1,...,xn) :

.

Matrices de Toeplitz tridiagonales

Soit une matrice de Toeplitz tridiagonale d'ordre n à coefficients complexes,

,

telle que bc = d2 ≠ 0. Les valeurs propres de T sont les λk = a + 2d coskπ/n + 1 pour k = 1, 2, … , n, un vecteur propre xk associé à λk ayant pour composantes xk,j = (d/b) j sinj k π/n + 1 (j = 1, 2, … , n)[2].

Si a, b et c sont réels et bc > 0, T est donc diagonalisable non seulement sur ℂ mais sur ℝ.

Applications

Les matrices tridiagonales sont courantes dans l'étude des splines cubiques. Elles sont également souvent des solutions au problème de Sturm-Liouville.

D'autre part, un système linéaire impliquant une matrice tridiagonale, de la forme :

peut être résolu au travers d'algorithmes spécifiques, qui nécessitent O(n) opérations[3].

Notes et références

  1. (en) Carnahan, Luther et Wilkes, Applied Numerical Methods.[réf. incomplète]
  2. (en) Albrecht Böttcher et Sergei M. Grudsky, Spectral Properties of Banded Toeplitz Matrices, SIAM, , 411 p. (ISBN 978-0-89871-785-3, lire en ligne), p. 35.
  3. (en) Gene H. Golub et Charles F. Van Loan, Matrix Computations, Johns Hopkins University Press, , 3e éd., 694 p. (ISBN 978-0-8018-5414-9, lire en ligne).

Voir aussi

Articles connexes

Bibliographie

(en) Roger A. Horn (en) et Charles R. Johnson, Matrix Analysis, Cambridge University Press, , 561 p. (ISBN 978-0-521-38632-6, lire en ligne)

Lien externe

(en) Tridiagonal and Bidiagonal Matrices dans le manuel de LAPACK