Relations entre coefficients et racines

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher

Un polynôme P(x) de degré n s'écrit sous sa forme la plus générale :

P(x) = a_nx^n + a_{n-1}x^{n-1} + \cdots + a_0\,

a_i est appelé coefficient de x^i. On peut aussi définir P grâce à ses racines, c'est-à-dire l'ensemble des valeurs de x qui annulent P. Le théorème de d'Alembert-Gauss nous assure que tout polynôme de degré n admet exactement n racines sur \mathbb{C}, éventuellement multiples (sur \mathbb{R} en revanche, ce n'est pas toujours vrai). On montre que P peut se réécrire :

P(x) = a_n(x-r_1)(x-r_2)\cdots(x-r_n)\,

avec r_i les racines de P, éventuellement multiples. Les relations entre les coefficients et les racines portent le nom de François Viète, le premier à les avoir énoncées dans le cas de racines positives.

Relations de Newton[modifier | modifier le code]

Polynômes symétriques[modifier | modifier le code]

Article détaillé : Polynôme symétrique.

On définit le k-ième polynôme symétrique, noté \sigma_k, comme la somme de ses éléments multipliés k fois. Par exemple, les polynômes symétriques associés aux variables w, x, y et z sont :

\sigma_1 = w + x + y + z~,
\sigma_2 = wx + wy + wz + xy + xz + yz~,
\sigma_3 = wxy + wyz + xyz + xzw~,
\sigma_4 = wxyz~.

Plus généralement,

\sigma_1=\sum_{i=1}^n x_i~,
\sigma_2=\sum_{1\le i<j\le n} x_ix_j~,
\vdots
\sigma_k=\sum_{1\le i_1<\cdots<i_k\le n} x_{i_1}x_{i_2}\ldots x_{i_k}~,
\vdots
\sigma_n=x_1x_2\ldots x_n~.

Théorème[modifier | modifier le code]

Soient P un polynôme défini comme ci-dessus et x_i les n racines de P, éventuellement multiples. Nous avons le résultat suivant :

\sigma_{k}=(-1)^{k}\cdot\frac{a_{n-k}}{a_{n}}\,

Exemples[modifier | modifier le code]

  • Cas n = 2. Soient P(X) = aX^2 + bX + c et x_1, x_2 ses racines. Alors,
x_1+x_2 = -\frac{b}{a}~,
x_1x_2 = \frac{c}{a}~.
  • Cas n = 3. Soient P(X) = aX^3 + bX^2 + cX + d et x_1, x_2, x_3 ses racines. Alors,
x_1+x_2+x_3 = -\frac{b}{a}~,
x_1x_2+x_1x_3 + x_2x_3 = \frac{c}{a}~,
x_1x_2x_3 = -\frac{d}{a}~.

Sommes de Newton[modifier | modifier le code]

Article détaillé : Identités de Newton.

Exemple introductif[modifier | modifier le code]

On se donne le polynôme P(x) = x^3 +2x^2 + 3x + 4 avec a, b, c ses racines. On veut déterminer la somme a^2 + b^2 + c^2. Pour cela, nous disposons de l'identité suivante :

a^2 + b^2 + c^2 = (a+b+c)^2 - 2(ab+ac+bc)\,

Si bien que, d'après les relations de Viète :

a^2 + b^2 + c^2 = (-2)^2-2\cdot3=-2

Théorème[modifier | modifier le code]

Les sommes de Newton sont une généralisation de ce principe. On pose  s_k = r_1^k + \cdots + r_n^k , où les r_i sont les racines de P(x) = a_nx^n + a_{n-1}x^{n-1} + \ldots + a_0. (En particulier, s_0=n). La méthode présentée dans l'exemple se généralise, mais les calculs deviennent compliqués. On peut par contre démontrer directement[1] :

a_ns_1 + a_{n-1} = 0~,
a_ns_2 + a_{n-1}s_1 + 2a_{n-2}= 0~,
a_ns_3 + a_{n-1}s_2 + a_{n-2}s_1 + 3a_{n-3} = 0~,
\vdots
a_ns_d + a_{n-1}s_{d-1} + \ldots + a_{n-d+1}s_1+da_{n-d}= 0~.

Note et référence[modifier | modifier le code]

  1. Pellet, « Expression de la somme des puissances semblables des racines d'une équation, en fonction des coefficients », Nouvelles annales de mathématiques, 2e série, vol. 14,‎ 1875, p. 259-265 (lire en ligne)