Utilisateur:Kwendyida/Brouillon

Une page de Wikipédia, l'encyclopédie libre.

L'algorithme des moindre carré moyen (LMS: Least Mean Squares)[modifier | modifier le code]

Introduction[modifier | modifier le code]

Les algorithmes des moindres carrés moyens (LMS) sont une classe de filtres adaptatifs utilisés pour imiter un filtre souhaité en trouvant les coefficients de ce dit filtre qui minimise le critère d'erreur (différence entre le signal souhaité et le signal réel) quadratique moyenne EQM .

Il s'agit d'une méthode de descente de gradient stochastique en ce que le filtre n'est adapté qu'en fonction de l'erreur à un instant donné.

Il a été inventé en 1960 par le professeur de l'Université de Stanford Bernard Widrow [1] et son premier doctorat. étudiant Marcian Hoff.

Définition des symboles[modifier | modifier le code]

constitue un indice temporel sur le traitement actuel,

la longueur du filtre,

est une opération de transposition et de conjugaison de matrice,

correspond au vecteur d'entrée de taille p,

correspond au différents coefficients du filtres à estimer, ,

est la sortie du système que l'on tente d'extrapoler,

la sortie bruitée du système que l'on tente d'extrapoler,

est l'estimation de la sortie avec le filtre extrapolé,

le vecteur des coefficient du filtre estimé après n échantillons,

.

Formulation du problème[modifier | modifier le code]

Description de la formulation de l'estimation d'un filtre inconnu par le filtrage adaptatif avec la méthode du LMS

La réalisation du filtre causal de Wiener ressemble beaucoup à l'estimation

des moindres carrés, sauf dans le domaine du traitement du signal.

La solution des moindres carrés, pour la matrice d'entrée et le vecteur de sortie est donnée par :

.


Le filtre des moindres carrés moyens FIR est lié au filtre de Wiener, mais la minimisation du critère d'erreur du premier ne repose pas sur des corrélations croisées ou des auto-corrélations. Sa solution converge vers la solution de filtre de Wiener. La plupart des problèmes de filtrage adaptatif linéaire peuvent être formulés à l'aide du diagramme ci-dessus. Autrement dit, un système inconnu doit être identifié et le filtre adaptatif tente d'adapter le filtre pour le rapprocher le plus possible de , tout en utilisant les seuls signaux observables et ; mais , et ne sont pas directement observables. Sa solution est étroitement liée au filtre de Wiener.


Principe de base


L'idée de base du filtre LMS est d'approcher les poids de filtre optimaux , en mettant à jour les poids de filtre de manière à converger vers le filtre optimal.

Ceci est basé sur l'algorithme de descente de gradient. L'algorithme commence par supposer de petits poids (zéro dans la plupart des cas) et, à chaque étape, en trouvant le gradient de l'erreur quadratique moyenne, les poids sont mis à jour. Autrement dit, si le gradient EQM est positif, cela implique que l'erreur continuerait d'augmenter positivement si le même poids est utilisé pour d'autres itérations, ce qui signifie que nous devons réduire les poids. De la même manière, si le gradient est négatif, nous devons augmenter les poids. L'équation de mise à jour du poids est:


représente l'erreur quadratique moyenne et est un coefficient de convergence.Le signe négatif montre que nous descendons la pente de l'erreur, pour trouver les poids de filtre, , qui minimise l'erreur.

L'erreur quadratique moyenne en fonction des poids de filtre est une fonction quadratique, ce qui signifie qu'elle n'a qu'un extremum, celui qui minimise l'erreur quadratique moyenne, qui est le poids optimal. Le LMS se rapproche donc de ces poids optimaux en montant / descendant la courbe moyenne d'erreur quadratique en fonction du poids du filtre.


L'idée derrière les filtres LMS est d'utiliser la descente la plus raide pour trouver les poids des filtres qui minimisent une fonction de coût. Nous commençons par définir la fonction de coût comme


Cette fonction de coût est l'erreur quadratique moyenne, et elle est minimisée par le LMS. C'est là que le LMS tire son nom. Appliquer la descente la plus abrupte signifie prendre les dérivées partielles par rapport aux entrées individuelles du vecteur de coefficient de filtre (poids)

A présent est un vecteur qui pointe vers la montée la plus abrupte de la fonction de coût. Pour trouver le minimum de la fonction de coût, nous devons faire un pas dans la direction opposée de . Pour exprimer cela en termes mathématiques



est le pas d'adaptation. Cela signifie que nous avons trouvé un algorithme de mise à jour séquentielle qui minimise la fonction de coût. Malheureusement, cet algorithme n'est pas réalisable tant que nous ne connaissons pas .

Généralement, la moyenne ci-dessus n'est pas calculée. Au lieu de cela, pour exécuter le LMS dans un environnement "online" (mise à jour après la réception de chaque nouvel échantillon), nous utilisons une estimation instantanée de cette moyenne. Voir ci-dessous.

Simplifications[modifier | modifier le code]

Pour la plupart des systèmes, la moyenne doit être approximé. Cela peut être fait avec l'estimateur non biaisé suivant:

indique le nombre d'échantillons que nous utilisons pour cette estimation. Le cas le plus simple est

Pour ce cas simple, l'algorithme de mise à jour s'écrit comme suit:

Cela constitue l'algorithme de mise à jour du filtre LMS.