Identités de Newton

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher

En mathématiques, et plus particulièrement en algèbre, les identités de Newton (connues également sous le nom de formules de Newton–Girard) sont des relations entre deux types de polynômes symétriques, les polynômes symétriques élémentaires, et les sommes de Newton, c'est-à-dire les sommes de puissances des indéterminées. Évaluées aux racines d'un polynôme P à une variable, ces identités permettent d'exprimer les sommes des k-ièmes puissances de toutes les racines de P (comptées avec leur multiplicité) en fonction des coefficients de P, sans qu'il soit nécessaire de déterminer ces racines. Ces formules furent redécouvertes par Isaac Newton vers 1666, apparemment sans avoir eu connaissance du travail analogue de Albert Girard en 1629. Elles ont des applications dans de nombreux domaines mathématiques, tels que la théorie de Galois, la théorie des invariants, la théorie des groupes, la combinatoire, et même dans des domaines non mathématiques, comme en relativité générale.

Énoncé mathématique[modifier | modifier le code]

Formulation en fonction des polynômes symétriques[modifier | modifier le code]

Soient x_1,\ldots,x_n des variables ; pour tout entier k > 0, on note p_k(x_1,\ldots,x_n) la somme des puissances k-ièmes :

p_k(x_1,\ldots,x_n):=\sum_{i=1}^n{x_i}^k = {x_1}^k+\cdots+{x_n}^k (appelée somme de Newton)

et pour k ≥ 0, on note e_k(x_1,\ldots,x_n) le polynôme symétrique élémentaire qui est la somme des produits distincts de k variables distinctes parmi les n ; ainsi en particulier

\begin{align}
e_0(x_1,\ldots,x_n) &= 1,\\
e_1(x_1,\ldots,x_n) &= x_1+x_2+\cdots+x_n,\\
e_2(x_1,\ldots,x_n) &= \textstyle\sum\limits_{1 \leq i<j\leq n}x_ix_j,\\
e_n(x_1,\ldots,x_n) &= x_1x_2\cdots x_n,\\
e_k(x_1,\ldots,x_n) &= 0, \quad\text{pour}\ k>n.\\
\end{align}

Les identités de Newton s'écrivent alors :

 ke_k(x_1,\ldots,x_n) = \sum_{i=1}^k(-1)^{i-1} e_{k-i} (x_1,\ldots,x_n) p_i(x_1,\ldots,x_n),

relations vraies pour tout k\in\N^*. On obtient ainsi pour les premières valeurs de k :

\begin{align}
 e_1(x_1,\ldots,x_n) &= p_1(x_1,\ldots,x_n),\\
 2e_2(x_1,\ldots,x_n) &= e_1(x_1,\ldots,x_n)p_1(x_1,\ldots,x_n)-p_2(x_1,\ldots,x_n),\\
 3e_3(x_1,\ldots,x_n) &= e_2(x_1,\ldots,x_n)p_1(x_1,\ldots,x_n) -e_1(x_1,\ldots,x_n)p_2(x_1,\ldots,x_n) + p_3(x_1,\ldots,x_n).\\
\end{align}

La forme de ces relations ne dépend pas du nombre n de variables (mais le membre de gauche devient nul après la n-ième identité), ce qui permet de les énoncer comme des identités dans l'anneau des fonctions symétriques (en). Dans cet anneau, on a :

\begin{align}
 e_1 &= p_1,\\
 2e_2 &= e_1p_1-p_2,\\
 3e_3 &= e_2p_1 - e_1p_2 + p_3,\\
 4e_4 &= e_3p_1 - e_2p_2 + e_1p_3 - p_4,\\
\end{align}

et ainsi de suite ; dans ce cas, le membre de gauche ne s'annule jamais.

Ces équations permettent d'exprimer par récurrence les ei en fonction des pk ; inversement, les réécrivant sous la forme :

\begin{align}
 p_1 &= e_1,\\
 p_2 &= e_1p_1-2e_2,\\
 p_3 &= e_1p_2 - e_2p_1 + 3e_3 ,\\
 p_4 &= e_1p_3 - e_2p_2 + e_3p_1 - 4e_4, \quad\text{etc.}\\  
\end{align}

on peut exprimer les pi en fonction des ek.

Application aux racines d'un polynôme[modifier | modifier le code]

Les xi étant pris comme paramètres et non comme variables, considérons le polynôme unitaire en t ayant pour racines x1,…,xn :

 \prod_{i=1}^n \left( t - x_i \right) = \sum_{k=0}^n (-1)^{k} a_k t^{n-k},

où les coefficients a_k sont donnés par les polynômes symétriques élémentaires des racines : ak = ek(x1,…,xn). Les sommes des puissances des racines (qu'on appelle encore des sommes de Newton),  s_k = p_k(x_1,\ldots,x_n)= \sum_{i=1}^n x_i^k, peuvent alors être exprimées en fonction des coefficients du polynôme en appliquant les identités de Newton de proche en proche :

\begin{align}
  s_1 &= a_1,\\
  s_2 &= a_1 s_1 - 2 a_2,\\
  s_3 &= a_1 s_2 - a_2 s_1 + 3 a_3,\\
  s_4 &= a_1 s_3 - a_2 s_2 + a_3 s_1 - 4 a_4,  \quad\text{etc.}\\
\end{align}

Application au polynôme caractéristique d'une matrice[modifier | modifier le code]

Lorsque le polynôme du paragraphe précédent est le polynôme caractéristique d'une matrice A, les racines x_i sont les valeurs propres de A (comptées avec leur multiplicité algébrique). Pour tout entier k, la matrice Ak a pour valeurs propres les xik (avec les multiplicités correspondantes). Les coefficients du polynôme caractéristique de Ak sont alors donnés par les polynômes symétriques élémentaires en ces puissances xik. En particulier, la somme des xik est donnée par la trace de Ak : sk = tr(Ak).

Les identités de Newton relient donc les traces des Ak aux coefficients du polynôme caractéristique de A. Réciproquement, les utilisant pour calculer les polynômes symétriques élémentaires à partir des sommes de puissances, elles permettent donc de déterminer le polynôme caractéristique de A en calculant uniquement les puissances de A et leurs traces, puis en résolvant un système triangulaire d'équations. Le théorème de Cayley-Hamilton permet ensuite d'en déduire simplement la matrice inverse de A.

L'ensemble de ces calculs (réécrits sous une forme efficace) constitue l'algorithme de Faddeev-Leverrier, datant de 1840 ; une implémentation parallèle rapide de cet algorithme est due à Lazslo Csanky[1], en 1976. Il demande cependant des divisions (par des entiers), et n'est donc utilisable en général que dans des corps de caractéristique 0. L'implémentation de Csanky montre que ces différents calculs sont (dans ce cas) dans la classe de complexité NC.

Relation à la théorie de Galois[modifier | modifier le code]

Pour un n donné, les polynômes symétriques élémentaires ek(x1,…,xn) pour k = 1,…, n forment une base algébrique de l'espace des polynômes symétriques en x1,…. xn, c'est-à-dire que tout polynôme symétrique s'exprime en fonction polynomiale de ces polynômes symétriques élémentaires, et que cette expression est unique. Ce résultat général, connu sous le nom de théorème fondamental des polynômes symétriques, peut s'expliciter (à l'aide des identités de Newton) dans le cas des sommes de Newton. Ainsi, appliqué au polynôme unitaire \textstyle t^n+\sum_{k=1}^n (-1)^{k} a_k t^{n-k} dont les coefficients ak sont considérés comme des paramètres, cela signifie que toute fonction polynomiale S(x1,…,xn) de ses racines peut s'écrire comme fonction polynomiale P(a1,…,an) de ses coefficients seuls, c'est-à-dire sans qu'il soit nécessaire de calculer ces racines. Cela peut également se déduire de la théorie de Galois, en voyant les ak comme éléments d'un corps de base ; les racines sont alors dans une extension de ce corps, et le groupe de Galois de cette extension les permute suivant le groupe symétrique entier ; le corps invariant par tous les éléments de ce groupe de Galois est le corps de base.

Réciproquement, les identités de Newton permettent d'exprimer les polynômes symétriques élémentaires en fonction des sommes de Newton, et de démontrer que ces sommes forment également une base algébrique de l'espace des polynômes symétriques.

Démonstrations[modifier | modifier le code]

Chaque identité peut être vérifiée directement par un simple calcul algébrique, mais le cas général demande une démonstration. Voici quelques pistes possibles :

À partir du cas particulier n = k[modifier | modifier le code]

La k-ième identité de Newton en k variables s'obtient par substitution dans la formule définissant les ek :

 \prod_{i=1}^k (t - x_i) = \sum_{i=0}^k (-1)^{k-i} e_{k-i}(x_1,\ldots,x_k)t^i

Substituant xj à t, on a :

0= \sum_{i=0}^k (-1)^{k-i} e_{k-i}(x_1,\ldots,x_k){x_j}^i \quad\text{for }1\leq j\leq k.

Sommant sur l'ensemble des j, on obtient :

0= (-1)^kke_k(x_1,\ldots,x_k)+\sum_{i=1}^k(-1)^{k-i} e_{k-i}(x_1,\ldots,x_k)p_i(x_1,\ldots,x_k)

(Les termes en i = 0 sont séparés de la somme parce que p0 n'est en général pas défini.)

Cette équation donne immédiatement l'identité cherchée. Les identités correspondant à n < k variables s'en déduisent en annulant les k − n variables restantes ; le cas où n > k se traite en remarquant que chaque monôme ne contient pas plus de k variables, et que ce monôme ne change pas si on annule les n − k autres variables ; il suffit alors d'utiliser l'identité de Newton correspondant à ces k variables.

Par identification de séries formelles[modifier | modifier le code]

On peut également obtenir les identités de Newton à l'aide de manipulations formelles basées sur l'identité

\prod_{i=1}^n (t - x_i) = \sum_{k=0}^n (-1)^{k} a_k t^{n-k}

reliant les racines et les coefficients d'un polynôme unitaire. Pour faciliter les calculs, on commence par substituer 1/t à t, et on multiplie les deux membres par tn, obtenant :

\textstyle\prod_{i=1}^n (1- x_it) = \sum_{k=0}^n (-1)^{k} a_k t^k.

Remplaçant les ai par les polynômes symétriques, on obtient l'identité

\sum_{k=0}^n (-1)^{k} e_k(x_1,\ldots,x_n) t^k=\prod_{i=1}^n (1- x_it).

Après différentiation par rapport à t, et multiplication par t, il vient :

\begin{align}
  \sum_{k=0}^n (-1)^{k}k e_k(x_1,\ldots,x_n) t^k
 &=  t \sum_{i=1}^n \left((-x_i) \prod\nolimits_{j\neq i} (1- x_jt)\right)\\
 &=  -\left(\sum_{i=1}^n \frac{x_it}{1-x_it}\right) \prod\nolimits_{j=1}^n (1- x_jt)\\
 &= -\left(\sum_{i=1}^n \sum_{j=1}^\infty(x_it)^j\right) \left(\sum_{\ell=0}^n (-1)^\ell e_\ell(x_1,\ldots,x_n) t^\ell\right)\\
 &= \left(\sum_{j=1}^\infty p_j(x_1,\ldots,x_n)t^j\right) \left(\sum_{\ell=0}^n (-1)^{\ell-1} e_\ell(x_1,\ldots,x_n) t^\ell\right),\\
\end{align}

où le polynôme de droite a d'abord été réécrit comme une fonction rationnelle, puis celle-ci développée en série formelle en t, et les coefficients de chaque t j regroupés pour obtenir une somme de puissances (la convergence de la série est en fait assurée pour t assez proche de zéro, mais comme on ne s'intéresse qu'aux coefficients des t j, cette question de convergence n'a pas d'importance réelle). Comparant les coefficients de tk des deux membres, on obtient

(-1)^{k}k e_k(x_1,\ldots,x_n) = \sum_{j=1}^k (-1)^{k-j-1} p_j(x_1,\ldots,x_n)e_{k-j}(x_1,\ldots,x_n),

ce qui est la k-ième identité de Newton.

Comme somme télescopique d'identités[modifier | modifier le code]

La dérivation suivante[2] est formulée dans l'anneau des fonctions symétriques (en), car alors les identités ne dépendent pas du nombre de variables. Pour un k > 0 fixé, on définit (pour 2 ≤ i ≤ k) la fonction symétrique r(i) comme la somme des monômes distincts de degré k obtenus en multipliant une variable élevée à la puissance i par k − i autres variables distinctes. En particulier, r(k) = pk ; le cas r(1) est exclu car les monômes n'auraient plus de variable jouant un rôle spécial. Tous les produits pieki peuvent être exprimés en fonction des r(j) (les cas extrêmes i=1 et i=k mis à part). On obtient p_ie_{k-i}=r(i)+r(i+1)\quad\text{pour }1<i<k, puisque chaque produit des termes de gauche mettant en jeu des variables distinctes contribue à r(i), alors que ceux où les variables de pi figurent déjà parmi les variables du terme correspondant de eki contribuent à r(i + 1), et que tous les termes de droite sont ainsi obtenus une fois et une seule. Pour i = k, en multipliant par e0 = 1, on obtient trivialement p_ke_0=p_k=r(k)\,. Enfin le produit p1ek−1 (correspondant à i = 1) apporte des contributions à r(i + 1) = r(2) comme pour les autres valeurs de i < k, mais les contributions restantes sont égales à k fois chaque monôme de ek, puisque chacune des variables peut provenir du facteur p1 ; ainsi p_1e_{k-1}=ke_k+r(2).

La k-ième identité de Newton est alors obtenue en prenant la somme alternée de ces équations, laquelle est une somme télescopique : tous les termes de la forme r(i) disparaissent.

Identités analogues[modifier | modifier le code]

De nombreuses familles d'identités analogues et étroitement reliées aux identités de Newton existent.

Utilisation des polynômes symétriques complètement homogènes[modifier | modifier le code]

Notant hk le polynôme symétrique complètement homogène (en), c'est-à-dire la somme de tous les monômes de degré k, les sommes de puissances satisfont des identités semblables à celles de Newton, mais dont les termes sont tous positifs. Dans l'anneau des fonctions symétriques (en), elles s'écrivent kh_k=\sum_{i=1}^kh_{k-i}p_i,, pour tout k ≥ 1. Contrairement aux identités de Newton, le membre de gauche ne s'annule pas pour k assez grand, et le nombre de termes non nuls des membres de droite grandit indéfiniment. Pour les premières valeurs de k, on a

\begin{align}
  h_1 &= p_1,\\
 2h_2 &= h_1p_1+p_2,\\
 3h_3 &= h_2p_1 + h_1p_2 + p_3.\\
\end{align}

Ces relations peuvent se démontrer par un argument analogue à celui donné plus haut utilisant des séries formelles, mais en utilisant l'identité entre fonctions génératrices :

\sum_{k=0}^\infty h_k(X_1,\ldots,X_n)t^k = \prod_{i=1}^n\frac1{1-X_it}.

En revanche, les autres démonstrations données précédemment ne peuvent s'adapter aisément à ces nouvelles identités.

Expression des polynômes symétriques élémentaires en fonction de sommes de Newton[modifier | modifier le code]

Comme on l'a dit, les identités de Newton permettent d'exprimer par récurrence les polynômes symétriques élémentaires en fonction de sommes de Newton. Cela demande des divisions par des entiers, et ne peut donc être fait que dans l'anneau ΛQ des polynômes symétriques à coefficients rationnels :

\begin{alignat}2
 e_1 &= p_1,\\
 e_2 &= \textstyle\frac12p_1^2 - \frac12p_2 &&= \textstyle\frac12 ( p_1^2 - p_2 ),\\
 e_3 &= \textstyle\frac16p_1^3 - \frac12p_1 p_2 + \frac13p_3 &&= \textstyle\frac{1}{6} ( p_1^3 - 3 p_1 p_2 + 2 p_3 ),\\
 e_4 &= \textstyle\frac1{24}p_1^4 - \frac14p_1^2 p_2 + \frac18p_2^2 + \frac13p_1 p_3 - \frac14p_4
       &&= \textstyle\frac1{24} ( p_1^4 - 6 p_1^2 p_2 + 3 p_2^2 + 8 p_1 p_3 - 6 p_4 ),\\
\end{alignat}

et ainsi de suite. Pour un polynôme unitaire, ces formules expriment les coefficients en fonction des sommes de puissances des racines, en remplaçant chaque ei par ai et chaque pk par sk.

Expression des polynômes symétriques complètement homogènes en fonction de sommes de Newton[modifier | modifier le code]

Les relations analogues concernant les polynômes symétriques complètement homogènes se développent de même, amenant aux équations :

\begin{alignat}2
 h_1 &= p_1,\\
 h_2 &= \textstyle\frac12p_1^2 + \frac12p_2 &&= \textstyle\frac12 ( p_1^2 + p_2 ),\\
 h_3 &= \textstyle\frac16p_1^3 + \frac12p_1 p_2 + \frac13p_3 &&= \textstyle\frac{1}{6} ( p_1^3 + 3 p_1 p_2 + 2 p_3 ),\\
 h_4 &= \textstyle\frac1{24}p_1^4 + \frac14p_1^2 p_2 + \frac18p_2^2 + \frac13p_1 p_3 + \frac14p_4
       &&= \textstyle\frac1{24} ( p_1^4 + 6 p_1^2 p_2 + 3 p_2^2 + 8 p_1 p_3 + 6 p_4 ), \text{ etc.}\\
\end{alignat}

où tous les termes sont positifs. Ces expressions correspondent exactement aux indicateurs de cycles des polynômes des groupes symétriques, en interprétant les sommes de Newton pi comme des indéterminées : le coefficient d'un monôme p1m1p2m2plml dans l'expression de hk est égal à la proportion de toutes les permutations de k ayant m1 points fixes, m2 cycles de longueur 2, …, et ml cycles de longueur l. Plus précisément, ce coefficient peut s'écrire 1/N, avec N=\Pi_{i=1}^l(m_i!\,i^{m_i}) ; N est le nombre de permutations avec une permutation fixée  π ayant le type de cycle correspondant. Les expressions correspondant aux fonctions symétriques élémentaires ont des coefficients ayant les mêmes valeurs absolues, mais un signe égal à la signature de π, c'est-à-dire à (−1)m2+m4+….

Expression des sommes de Newton[modifier | modifier le code]

Inversement, on peut exprimer les sommes de Newton en fonction des polynômes symétriques élémentaires, et ces expressions ont des coefficients entiers :

\begin{align}
 p_1 &= e_1,\\
 p_2 &= e_1^2 - 2 e_2,\\
 p_3 &= e_1^3 - 3 e_2 e_1 + 3 e_3,\\
 p_4 &= e_1^4 - 4 e_2 e_1^2 + 4 e_3 e_1 + 2 e_2^2 - 4 e_4,\\
 p_5 &= e_1^5 - 5 e_2 e_1^3 + 5 e_2^2 e_1 + 5 e_3 e_1^2 - 5 e_3e_2 - 5 e_4 e_1 + 5 e_5,\\
 p_6 &= e_1^6 - 6 e_2 e_1^4 + 9 e_2^2 e_1^2 + 6 e_3 e_1^3 - 2 e_2^3 - 12 e_3 e_2 e_1 - 6 e_4 e_1^2 + 3 e_3^2 + 6 e_4 e_2 + 6 e_1 e_5 - 6e_6,\text{ etc.}\\
 \end{align}

mais ces expressions ne semblent pas suivre de règle explicite. On voit cependant que le coefficient d'un monôme M=\Pi_{i=1}^l e_i^{m_i} dans l'expression de pk a le même signe que le coefficient du produit correspondant \Pi_{i=1}^l p_i^{m_i} dans l'expression de ek donnée plus haut, c'est-à-dire (−1)m2+m4+…. De plus, la valeur absolue du coefficient de M est la somme, prise sur l'ensemble des suites de polynômes symétrique élémentaires dont le produit est M, de l'indice du dernier polynôme de chaque suite : ainsi, le coefficient de e15e3e43 dans l'expression donnant p20 est (-1)^{0+3}(280\times1+56\times3+168\times4)=-1120, puisque parmi les ordres distincts de cinq facteurs e1, un facteur e3 et trois facteurs e4, il y en a 280 se terminant par e1, 56 se terminant par e3, et 168 se terminant par e4.

Enfin, les identités concernant les polynômes complètement homogènes peuvent de même être inversées, amenant à :

\begin{align}
 p_1 &= + h_1,\\
 p_2 &= - h_1^2 + 2 h_2,\\
 p_3 &= + h_1^3 - 3 h_2 h_1 + 3 h_3,\\
 p_4 &= - h_1^4 + 4 h_2 h_1^2 - 4 h_3 h_1 - 2 h_2^2 + 4 h_4,\\
 p_5 &= + h_1^5 - 5 h_2 h_1^3 + 5 h_2^2 h_1 + 5 h_3 h_1^2 - 5 h_3h_2 - 5 h_4 h_1 + 5 h_5,\\
 p_6 &= - h_1^6 + 6 h_2 h_1^4 - 9 h_2^2 h_1^2 - 6 h_3 h_1^3 + 2 h_2^3 + 12 h_3 h_2 h_1 + 6 h_4 h_1^2 -3 h_3^2 - 6 h_4 h_2 - 6 h_1 h_5 + 6h_6,\text{ etc.}\\
\end{align}

Ces identités ont exactement la même forme que les précédentes, au signe près : le signe du monôme \Pi_{i=1}^l h_i^{m_i} est à présent −(−1)m1+m2+m3+….

Expressions sous forme de déterminants[modifier | modifier le code]

Les expressions précédentes correspondant à la résolution de systèmes d'équations linéaires, elles peuvent se formuler explicitement à l'aide de déterminants, en utilisant la règle de Cramer. Par exemple, écrivant les identités de Newton sous la forme :

\begin{align}
 e_1 &= 1p_1,\\
 2e_2 &= e_1p_1-1p_2,\\
 3e_3 &= e_2p_1 - e_1p_2 + 1p_3,\\
 \vdots &= \vdots \\
 ne_n &= e_{n-1}p_1 - e_{n-2} p_2 + \cdots +(-1)^ne_1p_{n-1}+(-1)^{n-1}p_n,\\
\end{align}

et en prenant p_1, {-p_2}, p_3, ..., (-1)^np_{n-1}et p_n comme inconnues, on obtient pour cette dernière :

p_n=\frac{\begin{vmatrix}1 & 0 & \cdots && e_1 \\ e_1 & 1  & 0 & \cdots & 2e_2 \\  e_2 & e_1 & 1&  & 3e_3 \\ \vdots&&\ddots&\ddots&\vdots
\\ e_{n-1} & \cdots & e_2 & e_1 & ne_n \end{vmatrix}}{\begin{vmatrix}1 & 0 & \cdots & \\ e_1 & 1  & 0 & \cdots  \\  e_2 & e_1 & 1&   \\ \vdots&&\ddots&\ddots
\\ e_{n-1} & \cdots & e_2 & e_1 & (-1)^{n-1} \end{vmatrix}}
=\frac{1}{(-1)^{n-1}}\begin{vmatrix}1 & 0 & \cdots && e_1 \\ e_1 & 1  & 0 & \cdots & 2e_2 \\  e_2 & e_1 & 1& & 3e_3 \\ \vdots&&\ddots&\ddots&\vdots
\\ e_{n-1} & \cdots & e_2 & e_1 & ne_n \end{vmatrix}
 =\begin{vmatrix}e_1 & 1 & 0 & \cdots\\ 2e_2 & e_1 & 1 & 0 & \cdots\\ 3e_3 & e_2 & e_1 & 1 \\ \vdots &&& \ddots & \ddots 
\\ ne_n & e_{n-1} & \cdots & & e_1 \end{vmatrix}.

Les calculs sont analogues (mais un peu plus compliqués) pour les e_n, ou pour les expressions en fonction des polynômes symétriques complètement homogènes ; on obtient finalement[3] :

e_n=\frac1{n!}
\begin{vmatrix}p_1 & 1 & 0 & \cdots\\ p_2 & p_1 & 2 & 0 & \cdots  \\ \vdots&& \ddots & \ddots \\ p_{n-1} & p_{n-2} & \cdots & p_1 & n-1 \\ p_n & p_{n-1} & \cdots & p_2 & p_1
\end{vmatrix},
\qquad p_n=(-1)^{n-1}
\begin{vmatrix}h_1 & 1 & 0 & \cdots\\ 2h_2 & h_1 & 1  & 0 & \cdots\\ 3h_3 & h_2 & h_1 & 1 \\ \vdots &&& \ddots & \ddots 
\\ nh_n & h_{n-1} & \cdots & & h_1
\end{vmatrix},\qquad h_n=\frac1{n!}
\begin{vmatrix}p_1 & -1 & 0 & \cdots\\ p_2 & p_1 & -2 & 0 & \cdots \\ \vdots&& \ddots & \ddots \\ p_{n-1} & p_{n-2} & \cdots & p_1 & 1-n \\ p_n & p_{n-1} & \cdots & p_2 & p_1 \end{vmatrix}.

On peut remarquer[4] que la formule pour hn s'obtient en prenant le permanent de la matrice pour en au lieu de son déterminant, et plus généralement qu'une expression pour un polynôme de Schur quelconque peut être obtenue en prenant l'immanant correspondant de cette matrice.

Notes et références[modifier | modifier le code]

(en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « Newton's identities » (voir la liste des auteurs)

  1. (en) L. Csanky, « Fast parallel matrix inversion algorithms », SIAM J. Comput., vol. 5, no 4,‎ décembre 1976 (lire en ligne)
  2. (en) D. G. Mead, « Newton's Identities », The American Mathematical Monthly, Mathematical Association of America, vol. 99-8,‎ 1992, p. 749–751 (DOI 10.2307/2324242, JSTOR 2324242)
  3. (en) Ian G. Macdonald, Symmetric functions and Hall polynomials, Oxford, The Clarendon Press, Oxford University Press,‎ 1979 (ISBN 0-19-853530-9), p. 20
  4. (en) Dudley E. Littlewood, The theory of group characters and matrix representations of groups, Oxford, Oxford University Press,‎ 1950 (ISBN 0-8218-4067-3), p. 84

Voir aussi[modifier | modifier le code]

Articles connexes[modifier | modifier le code]

Bibliographie[modifier | modifier le code]

Liens externes[modifier | modifier le code]