Aller au contenu

Théorie du contrôle

Un article de Wikipédia, l'encyclopédie libre.

En mathématiques et en sciences de l'ingénieur, la théorie du contrôle a comme objet l'étude du comportement de systèmes dynamiques à partir de leur représentation mathématique, paramétrée par des entrées sur lesquelles on peut agir[1],[2]. Elle peut être vue comme une branche de l'analyse et de l'optimisation, notamment appliquée à l'automatique, et spécialisée dans l'élaboration de contrôleurs délivrant des lois de commande aux systèmes dynamiques, en boucle ouverte ou en boucle fermée[1],[2]. Elle inclut également la conception d'observateurs, utiles à l'estimation de quantités physiques qui ne sont pas directement mesurables[3],[4],[5].

Le cadre classique[modifier | modifier le code]

Introduction au cadre classique[modifier | modifier le code]

Trajectoire de l'état d'un système dynamique temps-continu défini par et de condition initiale dans son espace d'état (à gauche), pour une commande (à droite).

On se place dans un ensemble, l'espace d'état d'un système (avec généralement ), sur lequel on définit une dynamique, c'est-à-dire une loi mathématiques qui depuis n'importe quel état initial , fournit une trajectoire appartenant à l'espace d'état . Lorsque est plongé dans un espace de dimension finie, les coordonnées de sont appelées variables d'état.

La trajectoire est fonction du temps , et dépendante des valeurs de paramètres d'entrée :

  • Le paramètre de contrôle, noté , appelé également paramètre de commande, et qui prend ses valeurs à chaque instant dans un espace des contrôles (avec généralement ). En pratique, le paramètre de contrôle correspond généralement aux signaux appliqués au système par le biais d'actionneurs.
  • Le paramètre d'entrée exogène, noté , appelé également paramètre de perturbation, et qui prend ses valeurs à chaque instant dans (avec généralement ). Contrairement à l'entrée sur laquelle on peut agir, l'entrée est subie par le système. Elle correspond aux perturbations et aux consignes du système, et elle est rarement considérée dans la plupart des problèmes. Elle est mentionnée ici par souci d'exhaustivité.

Si le déroulement du temps est modélisé par un entier positif (), le système est alors dit temps-discret (le temps ne prend que des valeurs entières). L'état du système ne dépend généralement que de l'état du système et des paramètres d'entrée à l'instant précédent. La dynamique du système est alors donnée par une suite définie par l'intermédiaire d'une fonction  ; elle s'écrit :

Si le déroulement du temps est modélisé par un réel positif (), le système est alors dit temps-continu (le temps s'écoule continument). Dans ce cas, la dynamique du système est généralement donnée par une équation différentielle ordinaire ; elle s'écrit :

Dans ce contexte est la dérivée temporelle de à l'instant , et il peut alors être nécessaire de vérifier l'existence et l'unicité de la trajectoire .

En pratique, on ne s'intéresse pas systématiquement à l'évolution de toutes les variables d'état, mais parfois uniquement à certaines quantités dites de sortie. Ces quantités d'intérêt, notées , sont à valeur dans un espace des sorties (avec généralement ). Elles sont définies par l'intermédiaire d'une fonction  :

Bien que cette distinction soit rarement faite en pratique, il est quelques fois nécessaire de distinguer les sorties mesurées des sorties contrôlées [6] :

  • Les sorties mesurées sont des quantités supposées connues en temps-réel, et qui peuvent notamment être utilisées pour synthétiser une commande . En pratique, il s'agit généralement de données mesurées au sein du système par le biais de capteurs.
  • Les sorties contrôlées sont les quantités dont on souhaite manipuler l'évolution par le biais de la commande .

Ces deux types de sorties ne sont pas systématiquement confondus. On peut tout à fait vouloir contrôler une quantité qu'on sait mesurer (sortie contrôlée et mesurée) ou qu'on ne sait pas mesurer (sortie contrôlée et non mesurée). On peut également mesurer une quantité dont on ne cherche pas particulièrement à contrôler l'évolution (sortie mesurée et non contrôlée).

Problématiques[modifier | modifier le code]

La question principale de la théorie du contrôle est: quel est le comportement des sorties contrôlées en fonction de celui du contrôle  ? Plus spécifiquement, en l'absence de perturbation, on peut lister plusieurs grandes problématiques:

  • La commandabilité (ou contrôlabilité[7]) : peut-on choisir de telle sorte que la trajectoire atteigne la sortie , une valeur cible choisie par ailleurs ? Elle est parfois confondue avec l'accessibilité, bien que les deux notions ne coïncident pas systématiquement[8].
  • La stabilisabilité : peut-on choisir de telle sorte que la trajectoire se stabilise asymptotiquement en , une valeur de consigne choisie par ailleurs ? On parle alors de problème de régulation[9],[10].
  • La poursuite de trajectoire : peut-on choisir de telle sorte que la trajectoire se stabilise asymptotiquement le long d'une trajectoire de consigne choisie par ailleurs ? On parle alors de problème d'asservissement[11].

Le terme de régulation est généralement réservé à la synthèse de commandes possédant des mécanismes de compensation des perturbations[11],[12],[13]. D'autres sources utilisent le terme d'asservissement sans imposer de stabilisation le long de la trajectoire de consigne[10],[14]. Il est à noter que les problèmes de régulation sont parfois vus comme des cas particuliers des problèmes d'asservissement, puisqu'il s'agit d'asservir le système le long d'une trajectoire de consigne constante[10].

Lorsque la loi de commande ne dépend pas des sorties mesurées , on parle de contrôle en boucle ouverte. Inversement, lorsque la loi de commande est mise à jour en temps-réel en fonction des sorties mesurées , on parle de contrôle en boucle fermée. De manière générale, les problèmes de stabilisation (le long d'une consigne constante ou non) nécessitent un contrôle en boucle fermée.

Les lois de commande répondant aux problématiques listées ci-avant peuvent être choisies de manière à minimiser certains critères. On parle alors de problème de contrôle optimal. Par exemple, trouver une loi de commande permettant de passer d'une valeur de sortie à une valeur de sortie en un temps minimal est appelé un problème de contrôle temps-optimal[15].

Une autre problématique de la théorie du contrôle est celle de l'estimation des variables d'état : peut-on, à partir de la connaissance des entrées et des sorties mesurées du système, estimer une trajectoire proche de la trajectoire réelle de l'état du système  ? On parle alors de problème d'observation[3],[4].

Lorsque la loi de commande est elle-même synthétisée en fonction d'un état estimé , on dit que la loi de commande est basée observateur[16],[5].

Représentation d'état[modifier | modifier le code]

Cas général[modifier | modifier le code]

En toute généralité, la théorie du contrôle s'intéresse donc aux systèmes dynamiques de la forme :

avec l'état interne du système, sa commande et ses autres entrées exogènes, sa sortie contrôlée et sa sortie mesurée. Ici, dénote ou suivant le contexte temps-continu ou temps-discret. Les équations ci-dessus forment la représentation d'état du système. Il arrive que la sortie contrôlée soit remplacée par une variable , définie comme l'écart entre et la consigne . La consigne est alors intégrée aux entrées exogènes . Le problème d'asservissement (ou de régulation) revient finalement à stabiliser en , et la deuxième équation de la représentation d'état devient :

Cas linéaire temps-invariant (LTI)[modifier | modifier le code]

Lorsque les variables du systèmes sont de dimension finie et que les fonctions , et introduites plus haut sont temps-invariant et linéaires en , et (éventuellement après les avoir linéarisées autour d'un point de fonctionnement), on aboutit au système linéaire temps-invariant (LTI) suivant :

Ce système LTI peut se ré-écrire dans le domaine fréquentiel, par le biais d'une transformation de Laplace dans le cas temps-continu et par le biais d'une transformation en Z dans le cas temps-discret, sous la forme :

avec , , et les représentations fréquentielles des signaux , , et  ; et les des matrices de transfert données par :

Techniques de contrôle[modifier | modifier le code]

Schéma bloc de contrôleurs : en boucle ouverte, en boucle fermée, et du cas mixte (où le contrôleur1 est un pré-compensateur)

Les problèmes de contrôle (par exemple de stabilisation ou de poursuite de trajectoire) sont traités en élaborant un contrôleur, c'est à dire un système capable de synthétiser la loi de commande qui sera délivrée au système. Comme évoqué précédemment ce contrôleur peut être conçu en boucle ouverte, ou en boucle fermée, bien que les problèmes de stabilisation (le long d'une trajectoire de consigne constante ou non) nécessitent en général un contrôle en boucle fermée.

Un contrôleur peut également posséder une composante en boucle ouverte et une en boucle fermée. La composante en boucle ouverte est alors appelée un pré-compensateur[17].

Contrôle en boucle ouverte[modifier | modifier le code]

En boucle ouverte, la commande est directement synthétisée en fonction du temps , de la connaissance des composantes de la consigne dans , et éventuellement des composantes de perturbations dans (on utilise parfois le terme de feed forward pour désigner ce cas). La connaissance de la condition initiale du système est généralement requise. Parmi les techniques en boucle ouvertes, on peut citer certaines lois de commande obtenues grâce au principe du maximum de Pontriaguine.

Contrôle en boucle fermée[modifier | modifier le code]

En boucle fermée, le contrôleur reçoit en temps-réel les sorties mesurées du système (qui font office d'entrées au contrôleur) afin de synthétiser la commande qui sera appliquée au système (et qui fait alors office de sortie mesurée du contrôleur). Cette commande est parfois appelée commande par retour de sortie, ou par retour d'état lorsque , c'est à dire lorsque tout l'état du système est mesuré.

On parle de contrôleur statique lorsque contrôleur ne possède pas de dynamique d'état interne[18],[17]. En général, la commande est alors directement synthétisée depuis la dernière valeur de mesurée :

Inversement, on parle de contrôleur dynamique lorsque le contrôleur possède une dynamique d'état interne[19],[17]. En général, ce contrôleur est donné par un système dynamique de représentation d'état :

désigne l'état interne du contrôleur, distinct de l'état du système contrôlé. Une nouvelle fois dénote ou suivant le contexte temps-continu ou temps-discret.

Bien que les commandes par retour d'état puissent être des contrôles statiques, en pratique cet état est généralement reconstruit par le biais d'un observateur d'état, qui possède lui bel et bien une dynamique interne[5]. Formellement, on est alors dans le cas d'un contrôle dynamique par retour de sortie. De manière générale, tout contrôle basé observateur peut être considéré de facto comme un contrôle dynamique par retour de sortie.

Sous-domaines notables[modifier | modifier le code]

Contrôle des systèmes multi-agents (SMA)[modifier | modifier le code]

La théorie du contrôle peut être appliquée aux systèmes multi-agents[20]. Dans ce cas, chaque agent est généralement considéré comme un système dynamique à part entière avec, pour le -ème agent : ses propres entrées , son propre état interne et ses propres sorties . Lorsque les agents sont de nature identique, on peut supposer qu'ils partagent le même espace d'état , le même espace des contrôles , le même espace des sorties , le même modèle de dynamique ainsi que la même fonction de sortie . On a alors pour chaque agent :

Dans le cadre d'un protocole de contrôle distribué, il est admis que les agents communiquent entre eux par le biais d'un réseau de communication, généralement modélisé par un graphe orienté , alors appelé graphe de communication. Dans ce graphe, chaque nœud représente un agent, et chaque arc représente un canal de communication des sorties du -ème agent vers les entrées du -ème agent. La loi de commande du -ème agent ne peut alors être synthétisée qu'à partir de sa propre sortie , ainsi que des sorties des agents pour lesquels il existe un arc de la forme . Cette synthèse peut, par exemple, s'effectuer par l'intermédiaire d'une fonction  :

De nouvelles questions propres au caractère collectif des systèmes multi-agents s'ajoutent alors aux problématiques habituelles du contrôle, notamment concernant l'auto-organisation de l'ensemble des agents en formation, la stabilisation autour de valeurs de consensus, l’évitement de collisions, l'éventuelle mise-à-jour de la topologie du graphe de communication, etc[21],[20]. On utilise parfois des notions de jeu différentiel pour étudier ce type de système[20].

Contrôle des équations aux dérivées partielles (EDP)[modifier | modifier le code]

Si l'espace d'état est un espace fonctionnel, alors à chaque instant, l'état est une fonction d'un paramètre . On notera par simplicité, avec à chaque instant un élément de . La fonction de la représentation d'état du cadre classique joue alors le rôle d'un opérateur, et cette représentation d'état peut devenir un système d'équations aux dérivées partielles[22],[23].

Considérons par exemple l'équation de la chaleur le long d'une barre à une dimension. La distribution de chaleur à un instant est fournie sur le segment et est à valeurs dans (soit ). La dynamique de cette distribution lorsque l'on contrôle la température aux bords est fournie pour tout par :

La condition initiale du système est alors donnée par pour tout et la commande s'applique par le biais des contraintes aux bords et . Étant donné une condition initiale , on peut alors, par exemple, se demander quelles sont les distributions de chaleur commandables à un instant [24].

Contrôle stochastique[modifier | modifier le code]

Il est également possible d'appliquer la théorie du contrôle aux processus stochastiques[25]. Dans ce cas, l'état est à chaque instant une variable aléatoire. La dynamique temps-continu de est alors donnée par le processus d'Itô suivant, décrit ici sous la forme d'une équation différentielle stochastique (EDS) :

représente un mouvement brownien. Dans ce genre de cadre, on cherche généralement un contrôle de façon à maximiser l'espérance d'un critère fonction de .

Exemples d'application[modifier | modifier le code]

Références[modifier | modifier le code]

  1. a et b « Introduction à la théorie du contrôle », sur sesp.esep.pro (consulté le )
  2. a et b Raphaël Richard, 24pm Academy, « Théorie du contrôle », sur 24pm Academy, (consulté le )
  3. a et b (en) « Control Systems/Estimators and Observers - Wikibooks, open books for an open world », sur en.wikibooks.org (consulté le )
  4. a et b Observers in Control Systems, Elsevier, (ISBN 978-0-12-237472-2, DOI 10.1016/b978-0-12-237472-2.x5000-7, lire en ligne)
  5. a b et c (en) H. L. Trentelman et P. Antsaklis, « Observer-Based Control », dans Encyclopedia of Systems and Control, Springer, , 1–6 p. (ISBN 978-1-4471-5102-9, DOI 10.1007/978-1-4471-5102-9_199-1, lire en ligne)
  6. « Compute H-infinity optimal controller - MATLAB hinfsyn - MathWorks France », sur fr.mathworks.com (consulté le )
  7. Jérémie Coulaud, « Contrôlabilité et observabilité », sur Class´Code et ses Pixees, (consulté le )
  8. « Controllability and accessibility in nonlinear control systems - ProQuest », sur www.proquest.com (consulté le )
  9. « système de régulation automatique », sur vitrinelinguistique.oqlf.gouv.qc.ca (consulté le )
  10. a b et c « Cours d'Automatique : les asservissements continus », sur public.iutenligne.net (consulté le )
  11. a et b « Séquence « Réguler et asservir les grandeurs physiques ». Cours : Régulation & Asservissement » [PDF]
  12. Alain Dupond, « Régulation - Cours terminale SI » [PDF]
  13. « Memoire Online - Etude et conception d'un système de régulation automatique de la fréquence et de la tension de sortie d'une hydrolienne en fonction de la vitesse de la roue (cas du projet d'électrification décentralisée de la ferme Benjin Agriculture). - Eric KABANSHI », sur Memoire Online (consulté le )
  14. « 🔎 Asservissement : définition et explications », sur Techno-Science.net (consulté le )
  15. Chi-Ting Wu, « Contrôle en temps optimal », Université Nancy 1 - Henri Poincaré - Département de Mathématiques - Institut Élie Cartan, Université de Lorraine,‎ (lire en ligne, consulté le )
  16. Benjamin Gérard, « Observateurs et commande basée observateur pour les systèmes bilinéaires », Thèse, Université Henri Poincaré - Nancy 1,‎ (lire en ligne, consulté le )
  17. a b et c Christophe Le Brun, « Analyse et commande de systèmes multivariables. Application à un turbopropulseur. », Thèse, CentraleSupélec,‎ (lire en ligne, consulté le )
  18. (en) « 3.1: Static Feedback Controller », sur Engineering LibreTexts, (consulté le )
  19. (en) « 3.2: First-Order Dynamic Controllers », sur Engineering LibreTexts, (consulté le )
  20. a b et c (en) Cooperative Control of Multi-Agent Systems (DOI 10.1007/978-1-4471-5574-4, lire en ligne)
  21. Harry L. Trentelman, Kiyotsugu Takaba et Nima Monshizadeh, « Robust Synchronization of Uncertain Linear Multi-Agent Systems », IEEE Transactions on Automatic Control, vol. 58, no 6,‎ , p. 1511–1523 (ISSN 0018-9286 et 1558-2523, DOI 10.1109/TAC.2013.2239011, lire en ligne, consulté le )
  22. « Cours : Introduction aux problèmes de Contrôle optimal des EDP », sur elearning-facsc.univ-annaba.dz (consulté le )
  23. (en) Jean-Michel Coron, « Control of partial differential equations », Scholarpedia, vol. 4, no 11,‎ , p. 6451 (ISSN 1941-6016, DOI 10.4249/scholarpedia.6451, lire en ligne, consulté le )
  24. Philippe Martin, Lionel Rosier et Pierre Rouchon, « On the Reachable States for the Boundary Control of the Heat Equation », Applied Mathematics Research eXpress, vol. 2016, no 2,‎ , p. 181–216 (ISSN 1687-1200 et 1687-1197, DOI 10.1093/amrx/abv013, lire en ligne, consulté le )
  25. a et b (en) Huyên Pham, Continuous-time Stochastic Control and Optimization with Financial Applications, vol. 61, Springer Berlin Heidelberg, coll. « Stochastic Modelling and Applied Probability », (ISBN 978-3-540-89499-5 et 978-3-540-89500-8, DOI 10.1007/978-3-540-89500-8, lire en ligne)
  26. (en) The Inverted Pendulum in Control Theory and Robotics: From theory to new innovations, Institution of Engineering and Technology, (ISBN 978-1-78561-320-3 et 978-1-78561-321-0, DOI 10.1049/pbce111e, lire en ligne)
  27. (en) Juan Pablo Rivera-Barrera, Nicolás Muñoz-Galeano et Henry Omar Sarmiento-Maldonado, « SoC Estimation for Lithium-ion Batteries: Review and Future Challenges », Electronics, vol. 6, no 4,‎ , p. 102 (ISSN 2079-9292, DOI 10.3390/electronics6040102, lire en ligne, consulté le )
  28. M. Shefer, S. Shemesh et M. Vald, « Optimal guidance and control of anti-ballistic missiles. », Scientific American, IEEE,‎ , p. 152–157 (DOI 10.1109/ICCON.1989.770496, lire en ligne, consulté le )
  29. P.R. Chandler, M. Pachter et S. Rasmussen, « UAV cooperative control », Proceedings of the 2001 American Control Conference., IEEE,‎ , p. 50–55 vol.1 (ISBN 978-0-7803-6495-0, DOI 10.1109/ACC.2001.945512, lire en ligne, consulté le )
  30. C. K. Rajasingh et Shashi K. Shrivastava, « Orbit and attitude control of a geostationary inertially oriented large flexible plate-like spacecraft », Acta Astronautica, vol. 15, no 11,‎ , p. 823–832 (ISSN 0094-5765, DOI 10.1016/0094-5765(87)90037-3, lire en ligne, consulté le )
  31. M Farina, L Galleani, P Tavella et S Bittanti, « A control theory approach to clock steering techniques », IEEE Transactions on Ultrasonics, Ferroelectrics and Frequency Control, vol. 57, no 10,‎ , p. 2257–2270 (ISSN 0885-3010, DOI 10.1109/TUFFC.2010.1687, lire en ligne, consulté le )
  32. Pourton, « Quand les Tic-Tac ne Parlent Pas de Bonbons : Les Mathématiques Derrière l'Art de l'Horlogerie », sur Pourton.info, (consulté le )
  33. Konstantin G. Mishagin, Vladimir A. Lysenko et Sergey Yur'evich Medvedev, « A Practical Approach to Optimal Control Problem for Atomic Clocks », IEEE Transactions on Ultrasonics, Ferroelectrics, and Frequency Control, vol. 67, no 5,‎ , p. 1080–1087 (ISSN 0885-3010 et 1525-8955, DOI 10.1109/TUFFC.2019.2957650, lire en ligne, consulté le )
  34. Kundan Kandhway et Joy Kuri, « Optimal control of information epidemics modeled as Maki Thompson rumors », Communications in Nonlinear Science and Numerical Simulation, vol. 19, no 12,‎ , p. 4135–4147 (ISSN 1007-5704, DOI 10.1016/j.cnsns.2014.04.022, lire en ligne, consulté le )
  35. (en) Amine El Bhih, Rachid Ghazzali, Soukaina Ben Rhila et Mostafa Rachik, « A Discrete Mathematical Modeling and Optimal Control of the Rumor Propagation in Online Social Network », Discrete Dynamics in Nature and Society, vol. 2020,‎ , p. 1–12 (ISSN 1026-0226 et 1607-887X, DOI 10.1155/2020/4386476, lire en ligne, consulté le )
  36. (en) Liang’an Huo, Tingting Lin, Chongjun Fan et Chen Liu, « Optimal control of a rumor propagation model with latent period in emergency event », Advances in Difference Equations, vol. 2015, no 1,‎ , p. 54 (ISSN 1687-1847, DOI 10.1186/s13662-015-0394-x, lire en ligne, consulté le )
  37. Shahriar Seddighi Chaharborj, Sarkhosh Seddighi Chaharborj, Jalal Hassanzadeh Asl et Pei See Phang, « Controlling of pandemic COVID-19 using optimal control theory », Results in Physics, vol. 26,‎ , p. 104311 (ISSN 2211-3797, DOI 10.1016/j.rinp.2021.104311, lire en ligne, consulté le )
  38. (en) Brittany H. Scheid, Arian Ashourvan, Jennifer Stiso et Kathryn A. Davis, « Time-evolving controllability of effective connectivity networks during seizure progression », Proceedings of the National Academy of Sciences, vol. 118, no 5,‎ (ISSN 0027-8424 et 1091-6490, PMID 33495341, PMCID PMC7865160, DOI 10.1073/pnas.2006436118, lire en ligne, consulté le )
  39. G Cembrano, G Wells, J Quevedo et R Pérez, « Optimal control of a water distribution network in a supervisory control system », Control Engineering Practice, vol. 8, no 10,‎ , p. 1177–1188 (ISSN 0967-0661, DOI 10.1016/s0967-0661(00)00058-7, lire en ligne, consulté le )
  40. Osiadacz et Swierczewski, « Optimal control of gas transportation systems », Proceedings of IEEE International Conference on Control and Applications CCA-94, IEEE,‎ (DOI 10.1109/cca.1994.381219, lire en ligne, consulté le )
  41. D. Bao Nguyen, Jacquelien M. A. Scherpen et Frits Bliek, « Distributed Optimal Control of Smart Electricity Grids With Congestion Management », IEEE Transactions on Automation Science and Engineering, vol. 14, no 2,‎ , p. 494–504 (ISSN 1545-5955 et 1558-3783, DOI 10.1109/TASE.2017.2664061, lire en ligne, consulté le )
  42. T.L. Feenstra, H.S.J. Cesar et P.M. Kort, « Optimal control theory in environmental economics », dans Handbook of Environmental and Resource Economics, Edward Elgar Publishing, , 1099–1107 p. (ISBN 978-1-85898-375-2, lire en ligne)

Voir aussi[modifier | modifier le code]

Bibliographie[modifier | modifier le code]

Livres en français[modifier | modifier le code]

  • Frédéric Bonnans, Pierre Rouchon, Commande et optimisation de systemes dynamiques, Editions Ecole Polytechnique, , 280 p. (ISBN 978-2-7302-1251-9)
  • Nicole Berline, Claude Sabbah, Aspects de la théorie du contrôle, Editions Ecole Polytechnique, , 188 p. (ISBN 978-2-7302-1530-5)
  • Emmanuel Trélat, Contrôle optimal - Théorie et applications, Vuibert, , 250 p. (ISBN 978-2-7117-2219-8)
  • Laurent Praly, Delphine Bresch-Pietri, Fonctions de Lyapunov : stabilité, Spartacus-Idh, , 396 p. (ISBN 978-2-36693-116-7, lire en ligne)
  • Laurent Praly, Delphine Bresch-Pietri, Fonctions de Lyapunov : stabilisation, Spartacus-Idh, , 492 p. (ISBN 978-2-36693-118-1, lire en ligne)
  • Huyên Pham, Optimisation et contrôle stochastique appliqués à la finance, Springer, , 204 p. (ISBN 978-3540737360, lire en ligne)

Livres en anglais[modifier | modifier le code]

  • (en) Hassan K. Khalil, Nonlinear Systems, Pearson, , 768 p. (ISBN 978-0130673893)
  • (en) Mathukumalli Vidyasagar, Nonlinear Systems Analysis, , 498 p. (ISBN 978-0-89871-526-2)
  • (en) Stephen Boyd, Laurent El Ghaoui, E. Feron, V. Balakrishnan, Linear Matrix Inequalities in System and Control Theory, Society for Industrial and Applied Mathematics (SIAM), , 193 p. (ISBN 978-0-89871-485-2, lire en ligne)
  • (en) Frank L. Lewis , Hongwei Zhang , Kristian Hengster-Movric , Abhijit Das, Cooperative Control of Multi-Agent Systems: Optimal and Adaptive Design Approaches, Springer London, (ISBN 978-1-4471-5574-4, lire en ligne)
  • (en) Fredi Tröltzsch, Optimal control of partial differential equations: theory, methods and applications, American Mathematical Society, , 399 p. (ISBN 978-0821849040)

Liens externes[modifier | modifier le code]