Utilisateur:Jean-Luc W/Brouillon

Une page de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher

Géométrie euclidienne[modifier | modifier le code]

Géométrie[modifier | modifier le code]

Les mathématiques et la physique offrent de multiples exemples de fonctions de, ou à valeur dans un espace euclidien. La régularité, au sens de la continuité ou de la différentiabilité, est souvent une propriété essentielle. La cinématique du point ou du solide est modélisée par une fonction des nombres réels à valeurs dans un espace vectoriel de dimension trois ou six. Un champ électromagnétique est la donnée d’une fonction d’un espace euclidien dans un espace de dimension six.

Cette régularité est conséquence de la structure de l'espace métrique associée. La topologie sous-jacente offre un premier moyen d’expression de propriétés de cette nature. Elle permet de caractériser les applications continues, les compacts ou les connexes. Elle est définie de la manière suivante :

Topologie d’un espace euclidien —  Un ouvert d’un espace euclidien est un ensemble O tel que pour tout x élément de O, il existe une boule ouverte non vide de centre x et incluse dans O. La topologie associée est l'ensemble des ouverts de l'espace.

Cette définition est l’application exacte de la définition d’une topologie induite par une distance.

Ne pas oublier de traiter le cas ducorps valué complet localement compact.

Algèbre Linéaire[modifier | modifier le code]

Histoire[modifier | modifier le code]

Origines lointaines[modifier | modifier le code]

les Neuf Chapitres sur l'art mathématique ont en Chine un rôle analogue aux Éléments d'Euclide en occident.

Les prémisses de l'algèbre linéaire remonte à l'antiquité. On trouve trace de système d'équations linéaires dès le IIIe siècle av. J.-C. sur des tablettes d'argile babylonienne. On peut y lire[1] :

« Soit deux champs dont la surface totale est de 1 800 pieds carré. L'un produit une quantité de 2/3 de boisseau par pieds carré, l'autre 1/2. Si le total de la production est de 1 100 boisseaux, quel est la taille de chaque champ ? »

Durant cette période la Chine est la civilisation la plus avancée dans ce domaine. Un vieux texte, datant problablement du Ier siècle av. J.-C.[2] : les Neuf Chapitres sur l'art mathématique y consacre sa huitième partie. Elle s'intitule Fang cheng ou Disposition rectangulaire et traite de la même problématique, on y trouve l'exemple suivant[1] :

« Il existe trois types de grain, tel que trois ballots du premier, deux du deuxième et un du troisième font 30 mesures. Deux du premier type, trois du second et un du troisième font 34 mesures. Et un du premier, deux du second et trois du troisième font 26 mesures. Combien de mesures de grain sont contenues dans un ballot de chaque type ? »

Pour résoudre cette question, la méthode proposée utilise un ancêtre de matrice, correspondant à une transposée selon les conventions actuelles et dénommées tableau de compte. Cette culture n'en reste pas là, Qin Jiushao (1202 - 1261) généralise cette étude à des nombres différents des entiers ou rationnels. Il utilise les congruences, inaugurant une démarche précurseur, consistant à définir des vecteurs sur des ensembles de nombres exotiques. Il peut ainsi résoudre des problèmes liés au calendrier et aux alignements de planètes avec une redoutable précision[3]. La méthode utilisée ne sera connue qu'au XIXe siècle en occident, sous le nom de pivot de Gauss. Ce résultat est suffisamment étonnant pour que Libbrecht précise que :

« Nous ne devrions pas sous-estimer la percée révolutionnaire de Qin, en effet, depuis le théorème des restes chinois de Sun Zi, on passe sans intermédiaire à un algorithme plus avancé que la méthode de Gauss elle-même, et il n'y a pas la moindre indication d'une évolution graduelle. »[4]

Outils[modifier | modifier le code]

Déterminant[modifier | modifier le code]

Article détaillé : Déterminant (mathématiques).
Charles Gustave Jacob Jacobi propose le formalisme moderne du déterminant.

La résolution d'un système d'équations linéaires amène le développement du déterminant. Gerolamo Cardano (1501 - 1576) élucide le cas de la dimension deux dans son ouvrage Ars Magna de 1545. Deux siècles sont nécessaires pour que Gabriel Cramer (1704 - 1752) propose une solution générale de dimension n à l'aide de cet outil, sans démonstration.

Les mathématiciens utilisent alors ce premier outil de la futur algèbre linéaire pour d'autres finalités. L'étude des polynômes amène Étienne Bézout (1730 - 1783), puis Alexandre-Théophile Vandermonde (1735 - 1796) à utiliser les déterminants ainsi qu'un ancêtre de matrice. La physique joue un rôle, à travers des études de mécaniques, Joseph-Louis Lagrange (1736 - 1813) associe un déterminant en dimension trois avec un volume orienté. Le pont entre l'algèbre linéaire et la géométrie, établi par René Descartes (1596 - 1650) se renforce[5]. L'arithmétique est impacté dans la même période, Adrien-Marie Legendre (1752 - 1833) utilise le déterminant pour l'étude des formes quadratiques sur les entiers[6]. Carl Friedrich Gauss (1777 - 1855) reprend ses travaux et utilise le terme de déterminant[7] pour la première fois, désignant ce qui maintenant est appelé discriminant d'une quadrique. Dans la même publication, il développe les rudiments de la multiplication et de l'inverse d'une matrice.

Augustin Louis Cauchy (1789 - 1857) termine ce premier chapitre de l'algèbre linéaire en 1812 avec un volumineux article de quatre vingt pages. Il démontre l'ensemble des résultats classiques sur le sujet, comme par exemple le fait que l' application transposée ne modifie pas le déterminant ou que le déterminant d'un produit est le produit des déterminants, et cela bien avant la définition formelle d'une matrice. Charles Gustave Jacob Jacobi (1804 - 1851) utilise le déterminant dans le cadre des intégrales multiples définissant le jacobien, il donne le formalisme moderne à cette notion. [8]


Réduction de l'endomorphisme[modifier | modifier le code]

D'autres outils sont développés pour des domaines très divers. Cauchy étudie un premier cas de diagonalisation dans le cas d'une matrice symétrique pour l'étude des résidus quadratique, il en déduit une méthode générale de résolution d'une équation différentielle linéaire d'ordre n à une variable. Cette question, liée à aux notions de valeur et vecteur propres est largement étudiée, sous différents aspects. Charles Sturm (1803 - 1855) puis Joseph Liouville (1809 - 1882) mettent au point la théorie portant maintenant leurs noms[9]. L'application linéaire sous-jacente est toujours symétrique, mais la dimension de l'espace n'est plus finie. La physique n'est pas en reste, Sylvester (1814 - 1897) remarque que les rotations d'un solide mettent en évidence des axe privilégiés définis par les moments d'inertie[10]. La méthode utilisée correspond à la diagonalisation d'un endomorphisme symétrique, associé à une forme quadratique.

Application multilinéaire[modifier | modifier le code]

algèbre tensorielle ?

Formalisations[modifier | modifier le code]

L'histoire de bides sur bides. Finalement cette affaire n'a pas grand chose à voir avec l'algèbre linéaire (sauf le concept de matrice) à traiter probablement dans l'article sur les espaces vectoriels. Deux exceptions, les matrices et le besoin constant de généralisation et d'unification, à traiter car c'est l'essence même de l'algèbre linéaire.

Vecteur vu comme un bipoint[modifier | modifier le code]

Totalement inadapté aux problèmes de recherche de l'époque, ne sert presque à rien. Ce n'est pas de la recherche mais du didactisme.

Géométrie Grassmanienne[modifier | modifier le code]

Un formalisme considéré comme trop cher pour un intérêt trop limité

La géométrie de Hamilton[modifier | modifier le code]

Pourquoi c'est un four

Matrice[modifier | modifier le code]

Le grand succès de l'école anglaise

Axiomatique de Péano[modifier | modifier le code]

Encore un four

Formalisation de Banach[modifier | modifier le code]

La clé du succès : rien à voir avec l'algèbre linéaire. Ce sont les considérations topologiques qui emportent le morceau.

  • Pas seulement topologique. La présence d'une base est à l'origine dela méthode de Galerkin qui mènen rapidement à celle des éléments finis.Claudeh5 2 décembre 2007 à 21:00 (CET)

Contenu[modifier | modifier le code]

Espace vectoriel, rang, dual[modifier | modifier le code]

Application linéaire, endomorphisme[modifier | modifier le code]

Forme p-linéaire alternée[modifier | modifier le code]

Passage au continu[modifier | modifier le code]

Utilisation en physique[modifier | modifier le code]

Calcul numérique[modifier | modifier le code]

  • Bien avant que ne commence l'analyse linéaire, on s'est occupé de calcul numérique. Par exemple Kepler s'est intéressé au calcul des volumes et a donné la formule des trois niveaux. Par la suite, Simpson donnera une formule équivalente pour le calcul d'une intégrale simple, la règle de Simpson.
  • Euler démontra la formule aujourd'hui appelée formule d'Euler-Mac Laurin. Cette formule est essentielle pour justifier l'analyse de l'erreur et les procédés d'extrapolation, comme celui de Richardson.
  • Ces méthodes qui semblent très éloignées de l'analyse linéaire sont fondamentales dans les applications et débouchent sur la résolution de grands systèmes linéaires.
  • Ces techniques sont mises en oeuvre dans la résolution numérique des équations aux dérivées partielles linéaires selon le schéma suivant.
    • On commence par discrétiser le domaine dans lequel on cherche la solution, ceci, par un maillage. L'équation elle-même est approchée par les différences finies ou par des éléments finis après une reformulation en termes variationnels afin d'avoir une solution, au sens des distributions, dans un espace de Sobolev.
    • On en déduit ensuite une formulation sous la forme d'un système linéaire à résoudre, les inconnues étant les valeurs aux différents noeuds du maillage de la fonction inconnue et de ses dérivées.
    • Le système est résolu, généralement par une méthode de Gauss ou par une méthode de relaxation, après une renumérotation des noeuds de manière à obtenir une matrice aussi proche que possible d'une matrice diagonale. On souhaite une matrice très creuse. On résout ainsi facilement des systèmes de 50 000 équations à autant d'inconnues alors que la résolution d'un système linéaire plein se heurte à d'insurmontables difficultés dès que le système linéaire atteint quelques milliers d'équations.
    • L'erreur de méthode est estimée en fonction d'un pas de discrétisation h (différences finies) ou de la distance maximale entre deux noeuds (éléments finis).

Analyse numérique Calcul numérique à l'état d'ébauche...différences finies)

résolution de systèmes linéaires et calcul des valeurs et vecteurs propres.
le maillage

Quel est l'usage de ces techniques ?

exemples:
  • 1/ construction d'un barrage. Problème statique et problème dynamique (mise en eau)
  • 2/ écoulement autour d'un contour (air, eau, ...)
  • 3/ phénomène des fissures, résistance des matériaux, ...
  • 4/ optimisation de formes
  • 5/ et bien d'autres: thermique, electromagnétisme, magnéto-hydrodynamique, élasticité, tunnels, ...

Qui en sont les auteurs et quelle est l'histoire de ce savoir?

là, c'est très ancien. On a (au moins depuis Euler mais on peut remonter à Newton, et Cotes, simpson, voire Kepler avec sa formule des trois niveaux) des problèmes d'analyse numérique tels que l'évaluation numérique des intégrales (formule d'Euler-Mac Laurin), des solutions des équations différentielles (méthode d'Euler, ...), des cours de l'école polytechnique des années 1920 (j'en ai), des traités sur les différences finies... L'invention des matrices date des années 1845 environ (Cayley et Hamilton), celle des transformations conformes, du théorème de Riemann (utile en hydrodynamique par exemple).
les méthode d'optimisation convexes commencent par Cauchy et dans un certain sens Gauss (méthode des moindres carrés en astronomie)

Il faut parler des méthodes d'approximation des solutions sur la frontière, des méthode d'éléments finis qui débouchent toujours sur des problèmes de maillage et les problèmes d'approximation des fonctions à plusieurs variables... L'optimisation convexe, la dualité, ... La théorie des graphes et les problèmes de chemins dans un graphe (voir en particulier l'article Liste des algorithmes de la théorie des graphes.

Les traités sur les matrices:

  • Autonne (1909,1910,1913,1915,...)
  • Cullis (1913)
  • Wedderburn (1934)
  • Parodi (1952, 1959)
  • Householder (1964)
  • Gantmacher (1966), ... Je rappelle aussi les célèbres matrices de Pauli

Théorème de Gershgorin

Utilisation en théorie de l'information[modifier | modifier le code]

Code linéaire[modifier | modifier le code]

Matrice de contrôle, Matrice génératrice etc...

Cryptographie[modifier | modifier le code]

Autres domaines[modifier | modifier le code]

ACP, matrice en économétrie, Programmation linéaire, graphes (problèmes de chemins, de flots, ...)

Notes et références[modifier | modifier le code]

Notes[modifier | modifier le code]

  1. a et b Exemple introductif du site de l'Université de Saint Andrew Matrices et déterminants
  2. Joseph Needham. Science and Civilization in China: Volume 3, Mathematics and the Sciences of the Heavens and the Earth, Cambridge University Press 1959 (ISBN 0521058015)
  3. J-C Martzloff, Chinese mathematical astronomy, H Selin and U D'Ambrosio Dordrecht pp 373-407 2000
  4. U Libbrecht Chinese mathematics in the thirteenth century : the Shu-shu chiu-chang of Ch'in Chiu-shao, Cambridge Massachusset 1973
  5. Le pont est la conséquence de l'utilisation de repère cartésien, René Descartes La Géométrie, Hollande p 1 1637 lire
  6. Essai sur la théorie des nombres Adrien-Marie Legendre lire la 2nd de 1808 1798
  7. Carl Friedrich Gauss Disquisitiones arithmeticae 1801
  8. Une histoire plus précises ainsi que les références manquantes associées à ce paragraphe se trouvent dans l'article Déterminant (mathématiques)
  9. Plusieurs articles traitent de ce sujet, voir par exemple Charles Sturm et Joseph Liouville Extrait d'un mémoire sur le développement des fonctions en séries dont les différents termes sont assujétis à satisfaire à une même équation différentielle linéaire, contenant un paramètre variable 1837 lire sur Gallica
  10. James Joseph Sylvester Théorie sur les invariants algébriques 1852

Liens externes[modifier | modifier le code]

Références[modifier | modifier le code]

Références historique[modifier | modifier le code]

  • (de) H-J Petsche Graßmann, Vita Mathematica N° 13 Basel Suisse 2006 (ISBN 3-7643-7257-5)

Ouvrages techniques[modifier | modifier le code]

  • Marcel Berger, Géométrie [détail des éditions]
    Ce livre traite aussi la géométrie projective, de manière poussée
  • Marcel Berger et Bernard Gostiaux, Géométrie différentielle : variétés, courbes et surfaces [détail des éditions]
    Un ouvrage issu d'un cours donné au Magistère de mathématiques sur les varités différentielles.
  • (en) Michael Spivak, (A Comprehensive Introduction to) Differential Geometry [détail des éditions]
    Une référence sur la géométrie différentielle en cinq volumes.
  • Serge Lang Elliptic Curves: Diophantine Analysis Springer-Verlag 1978 (ISBN 0387084894)
    Un livre de haut niveau utilisant la géométrie arithmétique
  • Roger Godement Introduction à la théorie des groupes de Lie Springer-Verlag 2004 (ISBN 3540200347)
    Un libre de haut niveau traitant à la fois de l'aspect géométrique d'un groupe de Lie, de son algèbre et de ses représentations.

Espace Vectoriel[modifier | modifier le code]

Histoire[modifier | modifier le code]

Convergence de l'algèbre et de la géométrie[modifier | modifier le code]

Une autre voie est explorée, elle ne suppose aucun système de coordonnées à priori. William Rowan Hamilton (1805 - 1865) remarque que les nombres complexes représentent un plan euclidien. Il passe dix ans de sa vie[1] à trouver un équivalent en dimension trois, et finit par trouver le corps des quaternions, de dimension quatre en 1843. Hamilton comprend qu'il n'est pas possible de définir une multiplication assurant à un espace vectoriel le statut de corps dans le cas d'une dimension quelconque. Sa méthode de construction est néanmoins novatrice, elle n'utilise que des corps de nombres et des opérations algébriques et aucun système de coordonnées a priori. Hamilton définit deux nouveaux mots vecteur et scalaire, il écrit :


Un vecteur est donc ... une sorte de triplet naturel (suggéré par la géométrie) : et en conséquence nous verrons que les quaternions offre une représentation symbolique simple sous forme trinomiale (i.x + j.y + k.z); ce qui ramène la conception et l'expression d'un tel vecteur à la forme la plus proche possible de cette obtenue avec les coordonnées cartésiennes et rectangulaires[2].

A la même époque, Arthur Cayley (1821 - 1895) procède d'une démarche analogue[3]. Si elle est aussi algébrique, elle ne cherche pas à établir une multiplication interne à l'espace, ce qui lui permet de généraliser à une dimension quelconque ses résultats. Les travaux les plus profonds sur cette notion sont l'œuvre de Hermann Günther Grassmann (1809 - 1877). Après douze ans d'analyse sur cette question, il décrit[4], en 1844, une structure abstraite sur laquelle est définie une addition et deux multiplications, une scalaire et une interne. Les propriétés des combinaisons linéaires, familles libres et liées ainsi que la notion de dimension sont explicitées, même si le terme n'est pas encore utilisé. Dès cette époque, il découvre le produit scalaire, l'équivalent de la notion de distance pour ce nouveau formalisme. Les travaux de Grassman ont un succès mitigé[5] au sein de la communauté scientifique. Il écrit une deuxième version[6] plus accessible en 1862, qui n'a guère plus de succès. A la différence près qu'il décrit ce qui est maintenant nommé une algèbre, sa dernière version offre une théorie presque complète des espaces vectoriels, fondée sur approche très proche de la conception moderne. A défaut d'être compris, il est plagié, probablement involontairement par Adhémar Jean Claude Barré de Saint-Venant qui publie des résultats similaires en 1845 et par Augustin Louis Cauchy (1789 - 1857) qui publie[7] en 1853 des résultats analogues, après avoir prise connaissance des résultats de Grassman, et cela sans le citer.

Vers une formalisation axiomatique[modifier | modifier le code]

Giuseppe Peano propose une première formalisation axiomatique de l'espace vectoriel remarquablement moderne.

Giuseppe Peano (1858-1932) développe et simplifie les travaux de Grassman. En 1888, il publie un livre[8] remarquablement novateur, contenant une définition axiomatique de la structure d'espace vectoriel. On y trouve, au chapitre IX :

« La somme de deux objets a et b est définie, i.e. un objet est défini et noté a + b, appartenant aussi au système, et vérifie :

et la valeur commune de la dernière égalité est notée a + b + c. »

Cette formalisation axiomatique est précurseur d'une démarche générale à la fin du XIXe siècle. Heinrich Weber (1842 1913) agit de même pour la structure de groupe[9] en 1896 et David Hilbert (1862 1943) axiomatise[10] les nombres réels en 1900, le cas général des corps est traité[11] en 1914 par Abraham Adolf Fraenkel (1891 1965).

La motivation de cette formalisation est double. Moritz Pasch (1843 1930) montre[12], en 1882, que la base axiomatique d'Euclide est incomplète. Une construction rigoureuse d'un plan affine est plus complexe que ce qu'imaginait Chasles. Une solution[13] est bien proposée par Hilbert, elle est néanmoins plus complexe qu'une approche algébrique. Son intérêt réside bien plus dans le domaine de la logique que dans celui de l'algèbre ou la géométrie. Enfin, dès cette époque, les mathématiques utilisent la structure vectoriel dans un contexte beaucoup plus large que celui du début du siècle. Le corps sous-jacent n'est plus nécessairement celui des réels, la théorie des corps finis, celle de Galois et de manière plus générale la théorie algébrique des nombres font appel à bien d'autres corps. Les développements de l'analyse fonctionnelle imposent l'étude de la dimension infinie.

Si l'accueil initial réservé aux travaux de Peano est mitigé. Le vent tourne en sa faveur durant l'année 1900[14]. Bertrand Russell (1872 1970) le croise dans le congrès international de philosophie. Il précise dans son autobiographie : « Le congrès fut un tournant de ma vie intellectuelle, car j'y ai rencontré Peano ». La démarche de Peano est finalement définitivement adpotée. La base axiomatique est modernisée, particulièrement par Stefan Banach (1892 1945) dans sa thèse de doctorat en 1920 pour adjoindre une norme, remplaçant la notion de distance pour les espaces de dimension infinies[15].

Utilisations en géométrie[modifier | modifier le code]

Perspective accélérée de la galerie de colonnes du Palazzo Spada construite par Francesco Borromini.

Les propriétés géométriques des espaces vectoriels induisent une utilisation systématique de cette structure en géométrie. L'exemple le plus simple est celui d'Euclide. Il correspond à la géométrie naturelle d'un espace affine sur les nombres réels. Un tel espace se construit simplement à l'aide d'un espace vectoriel réel. Cette définition généralise celle d'Euclide car la dimension est maintenant quelconque.

Un autre exemple est donné par la géométrie projective. Cette géométrie est celle utilisée par exemple pour le dessin en dimension deux d'une réalité tridimensionnelle. Les peintres la connaissent sous le nom de perspective. Cette géométrie est construite à l'aide d'un espace vectoriel de dimension trois, tous les points d'une droite passant par le point nul, qui représente l'oeil de l'observateur, sont identifiés, à l'image de la vue humaine. Avec une telle géométrie, les droites parallèles se rencontrent en un point, que les peintres appellent point de fuite. Cette propriété est illustrée par la figure de droite. La définition de l'espace projectif à l'aide des espaces vectoriels permet de généraliser cette géométrie à n'importe quelle dimension et sur n'importe quel corps.

De nombreuses autres géométries utilisent aussi les espaces vectoriels, à la fois pour leur construction et pour établir des théorèmes. Encore une fois, toutes sortes d'espaces vectoriels sont utilisés. La dimension n'est pas toujours finie, et le corps sous-jacent peut être celui des réels, des complexes ou encore d'autres corps comme celui des rationnels ou encore des corps finis.

Carte locale[modifier | modifier le code]

Article détaillé : Variété (géométrie).
La sphère est une variété riemannienne. On voit ici un triangle « infiniment petit » et un « gros » triangle.

Les espaces vectoriels servent à la construction de nombreuses géométries non euclidiennes. Une telle géométrie s'apparente à celle euclidienne, les distances les volumes et les angles sont toujours définis. En revanche, la somme des angles d'un triangle n'est pas toujours égale à somme de deux angles droits et parfois l'intersection de deux droites n'est jamais vide.

Une sphère est un exemple d'une telle géométrie. La surface de la terre dispose d'une distance, les angles sont définis mais les gros triangle ont pour somme de leurs angles une valeur supérieure à celle de deux angles droits.

Une des techniques mathématiques pour définir une géométrie de cette nature, appelée variété, s'apparente à celle des géographes. Une variété, peut être définie à partir de cartes appelées cartes locales, à la manière d'un atlas. Chaque carte correspond à la description d'une partie de la variété et chaque point de la géométrie possède un voisinage décrit par au moins une carte. La géométrie globale se conçoit grâce à la manière dont les différentes cartes se recollent. Ainsi un atlas de la terre montre que, quelque soit le point de départ, un déplacement suffisamment long vers l'est aboutit toujours au point de départ.

A l'instar des géographes, une carte est plate, même si elle représente un monde courbe. Autrement dit, elle correspond à une fonction définie sur un espace vectoriel. L'espace vectoriel est ainsi une structure à la base du concept de variété. Elle permet par exemple de définir la dimension de la variété, égale à celle des espaces vectoriels utilisés pour les cartes.

Espace tangent et courbure[modifier | modifier le code]

Articles détaillés : Espace tangent et Courbure.
Le sommet d'un cône est un exemple de point singulier.
Illustration des courbures principales et du plan tangent

Les espaces vectoriels sont présents dans l'étude des variétés différentielles. Des exemples sont données par l'espace tangent ou encore la courbure de l'espace en un point non singulier.

Une des notions de cette branche de la géométrie est celle de singularité. Il correspond par exemple aux arrêtes d'un cube ou au sommet d'un cône. Un point non singulier est dit régulier. De même qu'une courbe possède une droite tangente pour chaque point régulier, une variété possède aussi un espace tangent, qui s'avère être un espace vectoriel.

Il peut être défini comme l'ensemble des vitesses en un point donné que peut attendre un solide se déplaçant dans la variété. Sur un point de la terre, les vitesses que peuvent prendre un solide en un point donné forment un plan où chaque vecteur est défini par une longueur correspondant à la vitesse donnée en kilomètre-heure et une direction donnée par un angle.

La dimension de l'espace vectoriel tangent est égale à celle de la variété, définie au paragraphe précédent. En fait, l'espace tangent peut être vu comme une carte du voisinage du point tangent T. A chaque vecteur v d'une longueur par exemple inférieur à cent kilomètres-heure, il est possible d'associer le point de la terre atteint par un solide se déplaçant à vitesse constante v au bout d'une heure et partant du point T.

Les variétés différentielles disposent de courbures aux points réguliers. L'espace vectoriel qui les représente est celui tangent auquel est adjoint une direction perpendiculaire encore appelée vecteur normal. Il est possible d'approximer la variété par une autre variété de même plan tangent et de même courbure. En dimension deux, l'approximation est soit une sphère, soit une selle de cheval.

Variété algébrique[modifier | modifier le code]

Article détaillé : Variété algébrique.
Les courbes elliptiques peuvent être définies sur des espaces vectoriels construit à l'aide d'un corps fini. La figure illustre deux représentations graphiques de telles courbes.

Les exemples d'espace vectoriel précédents sont généralement définis sur les nombres réels ou complexes. Il existe cependant une autre manière de définir les variétés, qui permet d'utiliser d'autres corps de nombres, à l'aide de la notion de plongement. Une variété est plongée dans un espace vectoriel, si elle peut être représentée comme un sous-ensemble de cet espace, elle possède alors comme copie exacte une sous-variété de l'espace vectoriel.

Un théorème, démontré par Hassler Whitney (1907-1989), montre que toute variété différentielle de dimension finie peut être plongée dans un espace vectoriel de dimension double[16]. La définition du présent paragraphe est en conséquence équivalente à celle de celui sur les cartes locales.

Ainsi la sphère de dimension deux et de rayon un peut être plongée dans un espace de dimension trois. Elle correspond à l'ensemble des points dont les coordonnées vérifient x2 + y2 + z2 - 1 = 0. Cet exemple ouvre à une nouvelle définition d'une variété, elle correspond à l'intersection des racines de fonctions différentiables définies sur un espace vectoriel. Différentiable signifie ici que les graphes des fonctions ne possèdent pas de singularités.

Si l'espace est de dimension fini et si les fonctions sont des polynômes des différentes coordonnées de l'espace, alors la variété est dite algébrique. Cette définition possède l'avantage de permettre de définir une variété comme un plongement dans un espace vectoriel de dimension finie quelconque et en particulier défini sur un corps exotique comme un corps fini ou une extension finie de nombres rationnels.

Ces géométries sont largement utilisées en arithmétique, on parle alors de géométrie arithmétique. La démonstration[17] du dernier théorème de Fermat utilise largement un cas particulier de variétés algébriques sur un corps fini, celui des courbes elliptiques. Une courbe est une variété de dimension un.

Groupe de Lie[modifier | modifier le code]

Article détaillé : Groupe de Lie.
Un tore est un exemple de groupe de Lie de dimension deux. Le produit des deux cercles colorés sur la figure, définit une variété analogue à un pneu.

Un groupe de Lie est un groupe disposant de propriétés géométriques. Un exemple est donné par l'ensemble des nombres complexes de module un. Géométriquement, ce groupe est un cercle. Le produit direct de deux groupes de cette nature fournit un tore, une variété différentielle et algébrique.

L'étude d'une telle structure fait appel à plusieurs espaces vectoriels. Une telle structure bénéficie d'un espace tangent au point unité, comme toute variété différentielle. L'opération du groupe permet de définir une multiplication sur l'espace vectoriel. Cette opération permet de conférer une structure d'algèbre à l'espace, on parle alors d'algèbre de Lie.

A l'instar des groupes finis, il est possible de représenter un tel groupe à l'aide d'applications linéaires sur un espace vectoriel. Cette technique est largement utilisée pour l'étude de cette structure. Elle fournit de nombreux exemples de groupes de Lie. On peut citer les symétries d'un espace vectoriel ou encore l'ensemble des applications linéaire d'un espace vectoriel de dimension finie et de déterminant égal à un.

Il existe un autre espace vectoriel largement utilisé, celui des fonctions du groupe à valeur dans le corps de la représentation, souvent égal à celui des nombres complexes. Un sous-espace important est celui des fonctions centrales, il possède une base orthonormée permettant de définir une analyse harmonique, avec une transformée de Fourier. Cette espace vectoriel est de dimension infinie possédant une distance ayant les mêmes propriétés que celle d'Euclide.

Utilisations en analyse[modifier | modifier le code]

Calcul différentiel[modifier | modifier le code]

Analyse complexe[modifier | modifier le code]

Analyse fonctionnelle[modifier | modifier le code]

Une manière de résoudre certains problèmes de mathématiques consiste à considérer le monde des fonctions, par exemple définies sur les réels et à valeur réels et périodiques d'une période donnée, comme un espace vectoriel. Un tel ensemble est en effet stable par addition et multiplication scalaire.

Applications en Physique[modifier | modifier le code]

Notes et références[modifier | modifier le code]

Notes[modifier | modifier le code]

  1. T L Hankins Sir William Rowan Hamilton, Johns Hopkins University Press Baltimore 1980
  2. William Rowan Hamilton On quaternions, Royal Irish Academy Vol 3 pp 1-16 1847 [1]
  3. Arthur Cayley Chapters on the analytical geometry of n dimensions Philosophical Magazine, Vol. 1 1843
  4. Hermann Günther Grassmann Die lineale Ausdehnungslehre, Wiegand Leipzig 1844
  5. H-J Petsche Graßmann, Vita Mathematica N° 13 Basel Suisse 2006 (ISBN 3-7643-7257-5)
  6. Hermann Günther Grassmann Die Ausdehnungslehre, vollstandig und in strenger Form bearbeitet, Enslin Berlin 1862
  7. Augustin Louis Cauchy Sur les clefs algébrique, Comptes rendus Vol 36 pp 70-75 et 129-139 1853
  8. Giuseppe Peano Calcolo geometrico secondo l'Ausdehnungslehre di H. Grassmann preceduto dalle operazioni della logica deduttiva, Bocca Turino 1888
  9. Heinrich Weber Lehrbuch der Algebra Braunschweig 1896
  10. J. J. O'Connor E. F. Robertson The real numbers: Stevin to Hilbert 2005
  11. Abraham Adolf Fraenkel Über die Teiler der Null und die Zerlegung von Ringen Journal für die reine und angewandte Mathematik vol 145 p 139 1914 lire
  12. Moritz Pasch Vorlesungen über neuere Geometrie, Leipzig p 16 1882
  13. David Hilbert Les principes fondamentaux de la géométrie, Gauthier-Villars,Paris,1900 réédité par Dunod en 1971 Lire
  14. H. C. Kennedy Peano : Life and Works of Giuseppe Peano Dordrecht Reidel 1980
  15. G. H. Moore The Axiomatization of Linear Algebra : 1875-1940,Historia Math. Vol 22 pp 262-303 1995
  16. Hassler Whitney Differentiable manifolds, The Annals of Mathematics, 2nd Ser. Vol. 37, N° 3 pp. 645-680 1936
  17. Andrew Wiles Modular elliptic curves and Fermat's last theorem, Annals of Mathematics 141 (3) pp. 443-551 1995

Liens externes[modifier | modifier le code]

Références[modifier | modifier le code]

Références historique[modifier | modifier le code]

  • (de) H-J Petsche Graßmann, Vita Mathematica N° 13 Basel Suisse 2006 (ISBN 3-7643-7257-5)

Ouvrages techniques[modifier | modifier le code]

  • Marcel Berger, Géométrie [détail des éditions]
    Ce livre traite aussi la géométrie projective, de manière poussée
  • Marcel Berger et Bernard Gostiaux, Géométrie différentielle : variétés, courbes et surfaces [détail des éditions]
    Un ouvrage issu d'un cours donné au Magistère de mathématiques sur les varités différentielles.
  • (en) Michael Spivak, (A Comprehensive Introduction to) Differential Geometry [détail des éditions]
    Une référence sur la géométrie différentielle en cinq volumes.
  • Serge Lang Elliptic Curves: Diophantine Analysis Springer-Verlag 1978 (ISBN 0387084894)
    Un livre de haut niveau utilisant la géométrie arithmétique
  • Roger Godement Introduction à la théorie des groupes de Lie Springer-Verlag 2004 (ISBN 3540200347)
    Un libre de haut niveau traitant à la fois de l'aspect géométrique d'un groupe de Lie, de son algèbre et de ses représentations.