Système linéaire

Un article de Wikipédia, l'encyclopédie libre.

Un système linéaire (le terme système étant pris au sens de l'automatique, à savoir un système dynamique) est un objet du monde matériel qui peut être décrit par des équations linéaires (équations linéaires différentielles ou aux différences), ou encore qui obéit au principe de superposition : toute combinaison linéaire des variables de ce système est encore une variable de ce système.

Les systèmes non linéaires sont plus difficiles à étudier que les systèmes linéaires. Néanmoins, en linéarisant (quand c'est possible) un système non linéaire autour d'un point d'équilibre ou d'une trajectoire, on obtient un système linéaire qui représente correctement le système non linéaire au voisinage de ce point d'équilibre ou de cette trajectoire [1]. La linéarisation d'un système non linéaire autour d'une trajectoire non réduite à un point d'équilibre engendre un système linéaire à coefficients variables (en fonction de temps), d'où l'importance qu'a pris ce type de systèmes et les études récentes qui lui ont été consacrées.

Souvent (mais pas toujours), on distingue parmi les variables d'un système S les variables d'entrée, rassemblées dans une colonne u, et les variables de sortie, rassemblées dans une colonne y ; le triplet est alors appelé un système commandé[2] ou encore une dynamique[3].

Historique[modifier | modifier le code]

Les systèmes linéaires n'ont tout d'abord été étudiés que dans le cas stationnaire (également appelé « invariant ») dans le formalisme des fonctions de transfert. Cette approche est parvenue à sa pleine maturité avec la publication du célèbre livre de Bode à la fin de la seconde guerre mondiale (réédité depuis)[4]. Les travaux de Bellman[5], Pontryagin et ses collaborateurs[6] et surtout de Kalman[7],[8] ont conduit nombre d'automaticiens à privilégier la représentation d'état à partir des années 1960.

Kalman a fait une théorie complète des systèmes linéaires stationnaires sous forme d'état et a mis en évidence la perte d'information induite par le formalisme de transfert, à savoir les « modes cachés ». Sous l'impulsion de Wonham (de), les automaticiens se sont attachés à obtenir des représentations plus intrinsèques des systèmes linéaires que dans la formulation kalmanienne : c'est ainsi que s'est développée à partir de la seconde moitié des années 1970 l'approche géométrique[9] qui conserve néanmoins la structure de la représentation d'état.

Vers le milieu des années 1980, Jan Willems a mis l'accent sur le fait qu'un système linéaire stationnaire général devait se définir comme étant le noyau, dans une puissance d'un espace fonctionnel approprié, d'une matrice à éléments dans un anneau d'opérateurs différentiels à coefficients constant s : c'est l'approche dite « comportementale » (anglais : behavioral approach)[10],[11].

En 1990, à partir de ses travaux sur les systèmes non linéaires, Fliess a proposé une approche alternative suivant laquelle un système est un module de présentation finie sur un anneau d'opérateurs différentiels[3]. Au même moment, et de manière indépendante, Oberst[12] établissait le lien entre les deux approches (la première qui met l'accent sur les solutions, la seconde sur les équations) grâce à des notions d'algèbre homologique. Ceci faisait disparaître la séparation qui existait encore entre la théorie des systèmes linéaires au sens de l'automatique, qui nous préoccupe ici, et la théorie des systèmes différentiels linéaires, telle que développée par Malgrange[13] à partir des idées de Grothendieck en géométrie algébrique[14]. Ces idées ont donné naissance par la suite à la théorie des D-modules sous l’impulsion de Satō (et de l'« école de Kyoto » qu'il a fondée, dont Masaki Kashiwara est aujourd'hui un représentant de premier plan[15]).

La conception moderne des systèmes linéaires a fait récemment l'objet d'une présentation systématique[16] ; l'étude des systèmes linéaires à coefficients variables en fonction du temps y occupe une place importante, et notamment la notion de pôle d'un tel système, avec la propriété de stabilité qui résulte de la position de ces pôles dans le plan complexe[17]. Cette généralisation ne pouvait être réalisée sans une utilisation des outils de l'analyse algébrique[18].

Systèmes linéaires en tant que conoyaux[modifier | modifier le code]

Définition[modifier | modifier le code]

Soit un anneau d'opérateurs différentiels, supposé intègre et admettant un corps de fractions, c'est-à-dire vérifiant la propriété d'Ore à gauche et à droite (tout anneau intègre noethérien à gauche et à droite vérifie cette condition[19]). On supposera que est un anneau différentiel et que est une -algèbre. Si et ƒ est un élément d'un -module (module des fonctions indéfiniment dérivables, ou des distributions, ou des hyperfonctions, ou des germes de fonctions analytiques au voisinage de +∞, etc., suivant la nature des éléments de ), on a d'après la règle de Leibniz

est la dérivation de , dont est une extension. Comme ceci est vrai pour tout on a la relation de commutation

.

Un exemple typique est celui où . L'anneau est alors (isomorphe à) la première algèbre de Weyl qui est un anneau de Dedekind non commutatif et simple[19].

Un système linéaire défini sur est défini par une équation de la forme

et où est une colonne de éléments qui engendrent un - module à gauche de présentation finie (ce qu'on écrira ). De manière précise, on peut considérer la multiplication à droite par , notée , comme un opérateur de dans . Si est l'image de cet opérateur, est le quotient de annulé par les éléments de , à savoir le conoyau

.

On notera que toute combinaison linéaire d'un nombre fini de variables de et de leurs dérivées d'ordre quelconque (mais fini) est encore un élément de , ce qu'on peut prendre pour définition même de la linéarité. D'autre part, contrairement à l'équation qui le définit « par générateurs et relations », est un objet intrinsèque, dans le sens où il ne dépend pas de l'ordre dans lequel sont écrites les équations scalaires, ni de l'ordre dans lequel sont prises les variables, et plus généralement du choix des générateurs. On peut donc, au plan mathématique, identifier le système linéaire avec le module .

Commandabilité[modifier | modifier le code]

Le système est commandable s'il ne contient pas de variable sur laquelle aucune action n'est possible. Une telle variable se caractérise par le fait qu'elle satisfait une équation différentielle autonome, c'est-à-dire qu'elle n'est pas libre (ou qu'elle est liée). Un module qui ne contient aucune variable liée est (par définition) un module sans torsion. Cette observation a conduit Oberst à poser qu'un système est commandable s'il est un module sans torsion[12]. Pour Fliess, qui suppose que est un corps différentiel, se trouve être un anneau principal. Dans ce cas, un module de type fini est sans torsion si, et seulement si, il est libre, et il a donc défini un système commandable comme étant un module libre[3].

Dans le cas considéré par Fliess[3], tout système admet une représentation d'état, et la définition de la commandabilité comme étant la liberté du module équivaut à la définition kalmanienne classique[8] (voir l'article Représentation d'état).

On notera que la commandabilité est définie ci-dessus sans qu'il ait été besoin de spécifier un choix des variables de commandes. Cette indépendance de la notion de commandabilité par rapport à celle de variable de commande a été observée en premier lieu par Willems[11].


Systèmes linéaires en tant que noyaux[modifier | modifier le code]

Soit un anneau d'opérateurs différentiels vérifiant les mêmes conditions que ci-dessus, par exemple la première algèbre de Weyl pour fixer les idées. Soit un -module à gauche, par exemple l'espace des distributions sur la droite réelle. Notons

.

Dans son « approche comportementale », Willems[11] définit le système associé à la matrice comme étant ce noyau. Il nous reste à établir la connexion qui existe entre celui-ci et le conoyau ci-dessus.

On peut identifier les éléments de avec les homomorphismes de dans . Alors l'ensemble des homomorphismes de s'identifient avec les homomorphismes de dans qui s'annulent sur (voir l'article Module injectif). Par conséquent, on passe du conoyau au noyau ci-dessus par le foncteur contravariant représentable .

Ce foncteur est additif et exact à gauche de la catégorie des -modules à gauche dans celle des -espaces vectoriels. Ce foncteur est injectif (et permet donc de remonter du noyau au conoyau, ou par abus de langage des solutions aux équations) si, et seulement si est un « cogénérateur » (notion qui est classique en algèbre homologique). Il est bijectif et dualisant entre la catégorie des -modules à gauche et la catégorie image si, et seulement si est un « cogénérateur injectif ». C'est la situation la plus favorable.

Lorsque , les -modules suivants sont des cogénérateurs injectifs[12] :

(a) l'espace des combinaisons linéaires d'exponentielles-polynômes, ,
(b) l'espace des fonctions indéfiniment dérivables sur la droite réelle,
(c) l'espace des distributions sur la droite réelle.

Lorsque , l'espace des germes des fonctions analytiques dans un intervalle de la forme de la droite réelle est un cogénérateur injectif[16].

Lorsque , on ne connaît pas de cogénérateur injectif qui soit un espace rencontré en analyse. La situation est différente lorsque désigne l'espace des fonctions analytiques sur la droite réelle. Dans ce cas, l'espace des hyperfonctions est un cogénérateur injectif[20]. Cet exemple montre que pour un type de système linéaire donné, on doit mettre en jeu à la fois l'anneau et l'espace appropriés. C'est le principe même de l’analyse algébrique.

Dans les exemples ci-dessus l'approche par conoyaux (« équations ») et celle par noyaux (« solutions ») sont équivalentes.

Notes et références[modifier | modifier le code]

Notes[modifier | modifier le code]

  1. Dans certains problèmes où interviennent des systèmes non linéaires du second ordre, il peut être commode d'utiliser la « linéarisation équivalente », parfois dite « optimale ».
  2. Bourlès 2010
  3. a b c et d Fliess 1990
  4. Bode 1975
  5. Bellman 1957
  6. Pontryagin et al. 1962
  7. Kalman 1960
  8. a et b Kalman 1963
  9. Wonham 1985
  10. Willems 1986-87
  11. a b et c Willems 1991
  12. a b et c Oberst 1990
  13. Malgrange 1962-1963
  14. Grothendieck et Dieudonné 1971
  15. Kashiwara 1970
  16. a et b Bourlès et Marinescu 2011
  17. Marinescu et Bourlès 2009
  18. Il s'agit d'une discipline qui vise à résoudre des problèmes d'analyse en utilisant des structures algébriques (théorie des modules de présentation finie sur un anneau d'opérateurs, par exemple différentiels) et leur « dualisation » (celle-ci étant la base de l'algèbre homologique).
  19. a et b McConnell et Robson 2001
  20. Fröhler et Oberst 1998

Références[modifier | modifier le code]

Voir aussi[modifier | modifier le code]