Algorithme de recherche d'un zéro d'une fonction

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher

Un algorithme de recherche d'un zéro d’une fonction est une méthode numérique ou un algorithme de recherche d’une valeur approchée d’un x vérifiant f(x)=0, pour une fonction donnée d. Ici, x est un nombre réel appelé zéro de f ou lorsque f est polynomiale, racine de f.

Lorsque x est un vecteur, les algorithmes pour trouver x tel que f(x)=0 sont généralement appelés « algorithmes de résolution numérique d'un système d'équations ». Ces algorithmes sont une généralisation des algorithmes de recherche d’un zéro d’une fonction et peuvent s’appliquer à des équations linéaires ou non linéaires. Certains algorithmes de recherche des zéros (comme la méthode de Newton) peuvent être généralisés à la résolution numérique des systèmes d'équations non linéaires.

Les algorithmes de recherche des zéros d’une fonction sont étudiés en analyse numérique.

Algorithmes spécifiques[modifier | modifier le code]

Dichotomie[modifier | modifier le code]

La méthode de dichotomie est l'algorithme le plus simple pour trouver des zéros d'une fonction continue : commencer avec deux points a et b qui encadrent un zéro de la fonction, et à chaque itération, choisir l’un des deux intervalles [a, c] ou [c, b], c= (a + b)/2 étant le milieu de a et b. L’algorithme repose sur le choix du sous-intervalle de [a, b] qui contient un zéro. Dans la plupart des cas, la méthode de dichotomie garantit la convergence vers un zéro lorsque la fonction est continue. Sa progression dans la recherche est plutôt lente, puisque sa vitesse de convergence est linéaire. Une des particularités de cet algorithme est qu'il est possible de connaître à l'avance le nombre d'itérations nécessaires pour déterminer la racine de l'équation avec la précision souhaitée.

Newton-Raphson[modifier | modifier le code]

La méthode de Newton, appelée aussi méthode de Newton-Raphson, suppose que f est de classe C1. On « linéarise » la fonction f en la valeur approchée courante du zéro, en utilisant la dérivée de la fonction. Cela donne la relation de récurrence :

 x_{k+1} = x_k - \frac{f(x_k)}{f'(x_k)}.

La méthode de Newton peut ne pas converger si la valeur initiale est trop loin d’un zéro. Cependant, si elle converge, elle est beaucoup plus rapide que la méthode de dichotomie (sa vitesse de convergence est quadratique). Elle peut aisément se généraliser à des problèmes en dimensions supérieures.

Sécante[modifier | modifier le code]

Si la dérivée de la fonction dans la méthode de Newton est remplacée par une différence finie, nous obtenons la méthode de la sécante. Elle utilise la relation récurrente :

x_{n+1} = x_n - \frac{x_n-x_{n-1}}{f(x_n)-f(x_{n-1})} f(x_n).

Cette méthode ne requiert pas le calcul d’une dérivée, mais c’est au prix d’une vitesse de convergence plus lente que celle de Newton (de l’ordre de 1,618). Cependant, comme elle ne nécessite qu'une évaluation de fonction par itération, elle se révèle en général plus rapide que la méthode de Newton. Sa généralisation en dimension supérieure à 1 est la méthode de Broyden (en).

Regula falsi[modifier | modifier le code]

La méthode de la fausse position, aussi appelée méthode de regula falsi, s’apparente à la méthode de dichotomie. Cependant, elle ne coupe pas l’intervalle en deux parts égales à chaque itération, mais en un point donné par la formule de la méthode de la sécante. Cette méthode hérite de la robustesse de la méthode de dichotomie et de la complexité « super-linéaire » de la méthode de la sécante.

Méthode de Müller[modifier | modifier le code]

La méthode de la sécante évalue la racine de la fonction f en l'approximant par interpolation linéaire. La méthode de Müller évalue la racine par interpolation quadratique à l'aide des trois derniers points calculés. Elle converge plus rapidement que la méthode sécante (ordre de convergence de 1,84). Elle nécessite l'évaluation d'une racine carré à chaque itération. Une particularité de cette méthode est que le terme itéré xn peut devenir complexe.

Interpolation quadratique inverse[modifier | modifier le code]

L'inconvénient de la méthode de Müller peut être évité par l'interpolation de la bijection réciproque de f ce qui mène à la méthode de l’interpolation quadratique inverse. Encore une fois, la convergence est asymptotiquement plus rapide que la méthode de la sécante, mais elle se comporte souvent mal quand les itérés ne sont pas proches du zéro.

Méthode de Brent[modifier | modifier le code]

La méthode de Brent est une combinaison de la méthode de dichotomie, de la méthode de la sécante et de l’interpolation quadratique inverse. À chaque itération, cette méthode décide de laquelle de ces trois méthodes est susceptible d’approcher au mieux le zéro, et effectue une étape en utilisant cette méthode. Cela donne une méthode robuste et rapide, très populaire et très appréciée.

Gradient conjugué[modifier | modifier le code]

Article détaillé : Méthode du gradient conjugué.

Autres algorithmes[modifier | modifier le code]

D’autres algorithmes de recherches de zéros sont :

  • méthode du point fixe : l'équation f(x)=0 est reformulée sous la forme x=g(x)g est choisie de telle sorte que toute suite (xn) donnée par xn+1=g(xn) converge vers un zéro de f.

Recherche des racines d’un polynôme[modifier | modifier le code]

Une attention particulière a été donnée au cas particulier où f est une fonction polynomiale. Bien sûr, les méthodes décrites dans la section précédente peuvent être utilisées. En particulier, il est facile de déterminer la dérivée d’un polynôme, et la méthode de Newton est un très bon candidat. Mais il est possible de choisir une méthode qui exploite le fait que f est un polynôme.

Une possibilité est de considérer la matrice compagnon associée au polynôme. Sachant que les valeurs propres de cette matrice coïncident avec les racines du polynôme, on peut alors utiliser n’importe quel algorithme de recherche de valeur propre (en) pour trouver des valeurs approchées des racines du polynôme initial.

Une autre possibilité est d’utiliser la méthode de Laguerre, qui sous certaines conditions converge à coup sur vers l'une des racines (convergence globale). Sa vitesse de convergence est cubique pour les racines simples.

Si le polynôme a des coefficients rationnels et si on recherche uniquement des racines rationnelles, alors la méthode de Ruffini peut être utilisée.

Dans tous les cas, le problème de recherche de valeurs approchées de racines peut être mal conditionné comme le montrent les polynômes de Wilkinson (en).

Références[modifier | modifier le code]

Voir aussi[modifier | modifier le code]

Articles connexes[modifier | modifier le code]

Liens externes[modifier | modifier le code]