Polynôme de Hurwitz

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher

Un polynôme de Hurwitz, ainsi nommé en l'honneur du mathématicien allemand Adolf Hurwitz, est un polynôme d’une variable à coefficients réels dont les racines sont toutes à partie réelle strictement négative. De tels polynômes jouent un rôle important dans la théorie des équations différentielles linéaires à coefficients constants ainsi qu'en automatique, pour l’analyse de la stabilité des systèmes dynamiques. Le Critère de Routh-Hurwitz, détaillé plus bas, permet de tester cette stabilité. Il a été obtenu indépendamment par le mathématicien anglais Edward Routh en 1875[1] et par Hurwitz en 1895[2] et a été amélioré en 1914 par les mathématiciens français Liénard et Chipart dont le test de stabilité (également détaillé plus bas) est probablement le plus simple et le plus efficace[3]. L'intérêt pour ces différents critères a été relancé dans les années 1980 par le théorème de Kharitonov (en). Le lecteur pourra trouver quelques éléments historiques aux articles Automatique et Stabilité de Lyapunov. Le Critère de Jury (en) est l'équivalent du Critère de Routh-Hurwitz pour les systèmes à temps discret.

Propriétés[modifier | modifier le code]

Considérons un polynôme de degré n à coefficients réels et ses racines z_i réelles ou complexes (par couples de valeurs conjuguées dans ce cas). Les formes développée et factorisée sont les suivantes : P(z) = \sum_{i=0}^n a_i z^i = a_n \prod_{i=0}^n (z - z_i).

Sans restreindre la généralité, supposons encore a_n > 0.

On montre aisément les propriétés suivantes :

  1. Les coefficients d’un polynôme de Hurwitz sont > 0.
  2. Si P(z) possède une racine réelle ≥ 0, alors au moins un coefficient est ≤ 0.
  3. P(z) est de Hurwitz si et seulement si R(z) = z^n P\left(\frac1z\right) = \sum_{i=0}^n a_{n-i} \, z^i l’est également.
  4. Pour n > 1, soit Q(z) le polynôme de degré n(n-1)/2 dont les racines sont les sommes deux à deux des racines de P(z), soit les z_i + z_j avec i < j. Alors P(z) est de Hurwitz si et seulement si les coefficients de P(z) et de Q(z) sont > 0[4].
  5. Si les coefficients de Q(z) sont > 0, P(z) n’est pas nécessairement de Hurwitz.

Preuves[modifier | modifier le code]

  1. Il suffit de développer la forme factorisée pour le montrer.
  2. Idem.
  3. Il suffit de constater que R(z) = a_n \prod_{i=0}^n (1 - z z_i).
  4. Au préalable, on vérifie que les coefficients de Q(z) sont réels.
    • La nécessité se déduit de l’application de 1 pour P(z) et de sa preuve pour Q(z).
    • Pour la suffisance, on vérifie successivement à l’aide de 2 : a) les racines réelles de P(z) sont < 0 ; b) si une racine complexe de P(z) est à partie réelle ≥ 0, alors, en l’ajoutant à sa conjuguée, Q(z) possède une racine réelle ≥ 0, ce qui est exclu.
  5. Un contre-exemple : P(z) = (z-1)(z+2)^2 et Q(z) = (z+4)(z+1)^2.

Conditions supplémentaires[modifier | modifier le code]

En plus de satisfaire la propriété 1 ci-dessus sur la positivité des coefficients, d’autres conditions sont nécessaires pour assurer qu’un polynôme est de Hurwitz :

  • n<3 : pas d'autre condition[5]
  • n=3 : ajouter a_1a_2 - a_0a_3 > 0\
  • n=4 : ajouter a_2a_3 - a_1a_4 > \frac{a_3^2 a_0}{a_1}\ qui s’écrit aussi a_1a_2 - a_0a_3 > \frac{a_1^2 a_4}{a_3}\
  • n>4 : ajouter plus d’une condition (cf tableaux de Routh ci-dessous).

Remarques :

  • La condition pour n=3 se retient aisément par des considérations énergétiques (voir l'article filtre électrique linéaire).
  • La condition pour n=4 doit converger vers celle pour n=3 lorsque a_4 est quasi nul[6].

Cas général : le théorème de Routh-Hurwitz[modifier | modifier le code]

Critère de Routh[modifier | modifier le code]

Ce tableau est une construction numérique basée sur les coefficients a_i du polynôme dont les éléments permettent de vérifier un critère donnant une condition nécessaire et suffisante pour que le polynôme soit de Hurwitz.

Bien que le concept conserve toute sa pertinence, le critère décrit ici a significativement perdu de son importance en pratique avec l’avènement des moyens de calcul rapide : pour un polynôme dont les coefficients sont connus, il est en effet préférable de déterminer numériquement ses racines (car elles donnent des indications nuancées sur la stabilité), au lieu de mettre en œuvre le critère ne permettant que de trancher.

Pour un polynôme de degré n, ce tableau est une matrice C comportant n+1 lignes et au moins (n+1)/2 colonnes.

Les éléments des deux premières lignes C_{i, j} sont directement issues des coefficients, alors que les éléments des suivantes se déterminent par des calculs de déterminants :

  • La 1e ligne du tableau, indexée par z^{n}, comporte les coefficients a_{n}, a_{n-2}, … soit C_{1, j} = a_{n+2-2j}.
  • La 2e ligne du tableau, indexée par z^{n-1}, comporte les coefficients a_{n-1}, a_{n-3}, … soit C_{2, j} = a_{n+1-2j}.
  • Pour la ligne i, indexée par x^{n-i}, les éléments satisfont la relation récurrente suivante : C_{i+1, j} = \frac{C_{i-1, j+1} \ C_{i, 1} - C_{i-1, 1} \ C_{i, j+1}}{C_{i, 1}}.

Lorsque cette relation fait référence à des éléments qui sont hors de la matrice (j trop grand), ces derniers sont remplacés par 0.

Ce procédé conduit au tableau suivant :

Tableau de Routh
 z^{n}  C_{1,1} = a_{n} \  C_{1,2} = a_{n-2} \ C_{1,3} =  a_{n-4} \ C_{1,4} =  a_{n-6} \
 z^{n-1}  C_{2,1} = a_{n-1} \  C_{2,2} = a_{n-3} \  C_{2,3} = a_{n-5} \  C_{2,4} = a_{n-7} \
 z^{n-2} C_{3,1} = \frac{-1}{C_{2,1}}\begin{vmatrix}
  C_{1,1}  & C_{1,2}  \\
  C_{2,1}  & C_{2,2}  
\end{vmatrix} C_{3,2} = \frac{-1}{C_{2,1}}\begin{vmatrix}
  C_{1,1} & C_{1,3}  \\
  C_{2,1}  & C_{2,3}  
\end{vmatrix} C_{3,3} = \frac{-1}{C_{2,1}}\begin{vmatrix}
  C_{1,1} & C_{1,4}  \\
  C_{2,1}  & C_{2,4}  
\end{vmatrix}
 z^{n-3} C_{4,1} = \frac{-1}{C_{3,1}}\begin{vmatrix}
  C_{2,1} & C_{2,2} \\
  C_{3,1} & C_{3,2} 
\end{vmatrix} C_{4,2} = \frac{-1}{C_{3,1}}\begin{vmatrix}
  C_{2,1} & C_{2,3} \\
  C_{3,1} & C_{3,3} 
\end{vmatrix}
 z^{n-4} C_{5,1} = \frac{-1}{C_{4,1}}\begin{vmatrix}
  C_{3,1} & C_{3,2} \\
  C_{4,1} & C_{4,2} 
\end{vmatrix}

Critère de Routh — En supposant ici encore que a_n > 0, le polynôme est de Hurwitz si et seulement si les n+1 éléments de la première colonne sont tous > 0.

Remarque : Concernant les unités physiques dans le cas d’un système dynamique, celles de a_{i} sont [T^i]T est le temps. Partant de C_{1, 1} dont l’unité est [T^n], chaque élément de la matrice C est d’unité homogène, ce qui permet un contrôle sur le traitement numérique. L’unité de C_{i, j} étant [T^{n+3-i-2j}], on perd ainsi  :

  • deux unités en progressant d’une colonne,
  • une unité en progressant d’une ligne.

Si l’un des éléments en première colonne est nul (C_{i, 1} = 0), le calcul des C_{i+1, 1} est impossible et le cas est dit « singulier ». C'est par exemple le cas du polynôme

P(z)=z^4+z^3+2z^2+2z+1

qui a deux paires de racines complexes conjuguées, l'une à partie réelle positive, l'autre à partie réelle négative. Le Critère de Routh est une conséquence du théorème de Routh ci-dessous:

Théorème de Routh — Si le cas est non singulier (C_{i, 1}\neq 0, i=1,2,...), P(z) n'a pas de racines imaginaires et le nombre de ses racines appartenant au demi-plan droit est égal à V\left(\left\{ C_{1,1},C_{2,1},..., C_{n,1}\right\} \right)V\left(.\right) désigne le nombre de changements de signe dans la suite finie entre parenthèses.

Remarque sur les singularités (1)[modifier | modifier le code]

Une singularité C_{i, 1}=0 où les C_{i, j} (j=2,3,...) sont non nuls est dite du « premier type ». On peut contourner ce type de singularité en remplaçant l'égalité C_{i, 1}=0 par C_{i, 1}=\varepsilon\varepsilon >0 est une quantité « infiniment petite », puis en continuant les calculs (« méthode du \varepsilon de Routh »). S'il n'y a que des singularités de ce type, P(z) n'a pas de racines imaginaires et l'énoncé ci-dessus du théorème de Routh reste valable. La singularité du polynôme P(z)=z^4+z^3+2z^2+2z+1 est de ce type.

Le cas d'une singularité du « second type », c'est-à-dire qui n'est pas du premier type, est plus complexe. Une telle singularité se caractérise par le fait que toute une ligne de C_{i,j} \left(j=1,2,3,...\right) est nulle. C'est le cas du polynôme

P(z)=z^{10}+z^9-z^8-2z^7+z^6+3z^5+z^4-2z^3-z^2+z+1

qui a une racine réelle <0, 2 paires de racines complexes à partie réelle <0, et 2 paires de racines complexes à partie réelle >0. C'est également le cas du polynôme

P(z)=z^6+z^5+3z^4+3z^3+3z^2+2z+1

qui a 2 racines complexes conjuguées à partie réelle <0, 2 racines complexes conjuguées à partie réelle >0, et les deux racines imaginaires pures i,-i.

Critère de Hurwitz[modifier | modifier le code]

Les coefficients du polynôme permettent de définir une matrice explicitée dans l’article sur les déterminants de Hurwitz.

Considérons le polynôme

R\left( z\right) =\sum\limits_{i=0}^{n}a_{i}z^{n-i}=a_0 z^n+a_1 z^{n-1}+....+a_n

où l'on suppose a_0>0 sans perte de généralité. Dans certains ouvrages, plutôt que la matrice de Hurwitz associée à ce polynôme, on considère (de manière équivalente) sa transposée \mathfrak H donnée par

\mathfrak H=\left[ 
\begin{array}{cccccc}
a_{1} & a_{0} & 0 & 0 &  \cdots & 0 \\ 
a_{3} & a_{2} & a_{1} & a_{0} &  & 0 \\ 
a_{5} & a_{4} & a_{3} & a_{2} &  & 0  \\ 
\vdots  & \vdots  & \ddots & a_{4} & \ddots  &  \vdots\\ 
&  &  &  & \ddots  & a_{n-1}\\ 
0 & 0 & 0 & 0  & \cdots  & a_{n}
\end{array}
\right]

que l'on construit colonne par colonne en notant la particularité des diagonales. Le critère de Hurwitz peut s'énoncer comme suit :

Critère de Hurwitz — Le polynôme est de Hurwitz si et seulement si les n mineurs principaux

\Delta_i=\left| 
\begin{array}{cccccc}
a_{1} & a_{0} & 0 &  \cdots & 0 \\ 
a_{3} & a_{2} & a_{1} &    & \vdots \\ 
a_{5} & a_{4} & a_{3} &  \ddots  &   \\ 
\vdots  & \vdots  & \vdots &   \ddots  & a_{i-1} \\ 
\cdots & \cdots  & \cdots   & \cdots  & a_{i}
\end{array}
\right|

(i=1,...,n) sont tous >0.

On a de plus le résultat suivant:

Lemme — Soit C_{i,1} \left(i=1,2,...\right) les éléments de la première colonne du tableau de Routh de R\left(z\right). Alors

\Delta_1=C_{1,1}, \Delta_2=C_{1,1}C_{2,1}, ..., \Delta_i=C_{1,1}...C_{i,1}.

En utilisant le théorème de Routh, on en déduit le

Théorème de Routh-Hurwitz — Un cas est singulier si, et seulement si un de ces mineurs principaux \Delta_i \left(i\in \left\{1,...,n\right\}\right) est nul. Dans un cas non singulier, il n'y a pas de racines imaginaires pures et le nombre de racines à partie réelle >0 est égal à

V\left(\left\{ 1,\Delta _{1},\frac{\Delta _{2}}{\Delta _{1}},...,\frac{\Delta
_{n}}{\Delta _{n-1}}\right\} \right)=V\left(\left\{1,\Delta_1,\Delta_3,...\right\}\right)+V\left(\left\{1,\Delta_2,\Delta_4,...\right\}\right).

V\left(.\right) désigne le nombre de changements de signe dans la suite finie entre parenthèses. Les cas singuliers du premier type sont ceux pour lesquels un seul des \Delta_i est nul. Ces cas peuvent être traités en adaptant la « méthode du \varepsilon » de Routh.

La matrice de Hurwitz, ou de manière équivalente la matrice \mathfrak H, est plus simple à déterminer que le tableau de Routh. Dans certains cas, néanmoins, le calcul des mineurs \Delta_i nécessiterait plus d'opérations, inconvénient qui pourrait être pallié par le critère ci-dessous :

Critère de Liénard et Chipart[modifier | modifier le code]

Critère de Liénard et Chipart — Soit le polynôme R(z) ci-dessus où a_i>0, i=0,1,...,n. (i) L'une quelconque des deux conditions ci-dessous est nécessaire et suffisante pour que R(z) soit un polynôme de Hurwitz:

(1) \Delta_1>0, \Delta_3>0, ...,\Delta_{2k+1}>0,...,

(2) \Delta_2>0, \Delta_4>0, ...,\Delta_{2k}>0,...,.

(ii) Dans le cas non singulier, le nombre de racines de R(z) à partie réelle >0 est égal à

2V\left(\left\{1,\Delta_1,\Delta_3,...\right\}\right)=2V\left(\left\{1,\Delta_2,\Delta_4,...\right\}\right).

(avec la notation déjà utilisée).

(iii) Dans un cas singulier du premier type, l'une des suites finies ci-dessus ne prend pas la valeur 0, et si \delta désigne cette suite, le nombre de racines de R(z) à partie réelle >0 est égal 2V\left(\delta\right).

En conséquence, si les mineurs principaux d'ordre pair de la matrice de Hurwitz (ou, de manière équivalente, de \mathfrak H) sont tous >0, ceux d'ordre impair le sont aussi et réciproquement.

Remarque sur les singularités (2)[modifier | modifier le code]

  • Le Critère de Liénard et Chipart fait « disparaître » les singularités du premier type, sans qu'il soit nécessaire de recourir à la « méthode du \varepsilon » de Routh. Si par exemple
R(z)=z^4+z^3+2z^2+2z+1,

on vérifie facilement que \Delta_1=1, \Delta_2=0, \Delta_3=\Delta_4=-1 . Donc \delta=\left\{1,\Delta_1,\Delta_3\right\}=\left\{1,1,-1\right\} et le nombre de racines de R(z) à partie réelle >0 est 2V \left( \delta \right)=2.

  • En revanche, les singularités du second type subsistent. Parmi celles-ci, on rencontre celles pour lesquelles le polynôme R(z) a des racines imaginaires (voir Gantmacher 1966, Chap. XV, §§ 4, 8). Soit par exemple
R(z)=z^3+\alpha z^2+\omega^2z+\alpha \omega^2.

avec \alpha \omega \neq 0. On a \Delta_1=\alpha, \Delta_2=\Delta_3=0, et l'on a donc une singularité du second type. On peut raisonner de la manière suivante : si l'on remplace z par z+\eta,  \eta \neq 0, on constate, en négligeant les termes en o(\eta), que cette fois \Delta_2 est du signe de \eta, et que \Delta_3 est du signe de \eta \alpha. On en déduit donc que le polynôme R(z) a pour racines -\alpha et deux complexes imaginaires purs conjugués. On vérifie du reste que R(z)=\left(z+\alpha\right)\left(z^2+\omega^2\right).

Néanmoins, il existe des polynômes qui n'ont pas de racines imaginaires et qui présentent une singularité du second type (bien entendu, ces polynômes ne sont pas de Hurwitz). C'est par exemple le cas du polynôme

R(z)=2z^5+2z^4+z^3+z^2+4z+4

qui a pour racines -1, deux racines complexes conjuguées \alpha \pm i \beta, \alpha >0, et deux autres racines complexes conjuguées -\alpha \pm i \beta.

  • On peut déterminer le nombre de racines à partie réelle positive d'un polynôme quelconque (par exemple celui qu précède) grâce à un « tableau de Routh étendu », sans recourir à la « méthode du \varepsilon » ni à aucun artifice de ce type[7].

Application aux équations différentielles[modifier | modifier le code]

Considérons l’équation différentielle linéaire à coefficients constants suivante : \sum_{j=0}^m b_j \; y^{(j)}(t) = 0.

On dit que le point d'équilibre 0 est exponentiellement stable si, pour des conditions initiales quelconques, la solution converge exponentiellement vers 0 lorsque t tend vers l’infini.

Soit H(p)=\sum_{j=0}^m b_j \; p^{j} le polynôme caractéristique de cette équation. D'après un theorème classique[8], la solution y(t) est une combinaison de termes du type t^{k_i-1} e^{z_i t} où les z_i sont les racines distinctes de H(p) et les k_i sont des entiers prenant toutes les valeurs entre 1 et l'ordre de multiplicité de la racine z_i. On en déduit la

Condition nécessaire et suffisante de stabilité exponentielle — Le point d'équilibre 0 est exponentiellement stable si et seulement si H(p) est un polynôme de Hurwitz.

Notes[modifier | modifier le code]

  1. Routh 1877
  2. Hurwitz 1895
  3. Gantmacher 1966, Chap. XV.
  4. La détermination des coefficients de Q(z) sans connaître les racines de P(z) peut être obtenue au moyen des relations entre coefficients et racines, mais reste un problème non trivial.
  5. Avec n=2, c’est une évidence pour un physicien habitué au circuit RLC.
  6. Par contre, il faut connaître la situation de deux oscillateurs couplés avec injection de puissance pour retrouver l'inéquation (a_2 \, a_1) / (a_3 \, a_0) > 1 + k (a_4 / a_0) (a_1 / a_3)^2, k=1\ .
  7. Benidir et Picinbono 1990
  8. N. Bourbaki, Fonctions d'une variable réelle, Hermann, 1976, n°IV.2.8.

Bibliographie[modifier | modifier le code]

  • Messaoud Benidir et Michel Barret, Stabilité des filtres et des systèmes linéaires, Dunod,‎ 1999, 256 p. (ISBN 978-2-10-004432-0)
  • (en) Messaoud Benidir et Bernard Picinbono, « Extended Table for Eliminating the Singularities in Routh’s Array », IEEE Trans. on Automat. Control, vol. 35, no 2,‎ 1990, p. 218-221
  • Felix Gantmacher, Théorie des matrices, tome 2, Dunod,‎ 1966 (ISBN 978-2-87647-035-4)
  • (de) Adolf Hurwitz, « Bedingungen, unter welchen eine Gleichung nur Wurzeln mit negativen reellen Teilen besitzt », Mathematische Annalen, vol. 46,‎ 1895, p. 273–285 (lire en ligne)
  • Liénard et Chipart, « Sur le signe de la partie réelle des racines d'une équation algébrique », J. Math. Pures et Appliquées, vol. 10, no 6,‎ 1914, p. 391-346 (lire en ligne)
  • (en) Edward Routh, A treatise on the stability of a given state of motion, MacMillan,‎ 1877 (lire en ligne)

Voir aussi[modifier | modifier le code]