Philosophie de l'intelligence artificielle

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher

La philosophie de l'intelligence artificielle tente de répondre à des questions telles que[1] :

  • Une machine peut-elle agir intelligemment ? Peut-elle résoudre n'importe quel problème qu'une personne voudrait résoudre par la réflexion ? 
  • L'intelligence humaine et l'intelligence artificielle sont-elles les mêmes ? Le cerveau humain est-il un ordinateur ?
  • Une machine peut-elle avoir un esprit, état d'esprit, et une conscience similaire à celle de l'humain ? Peut-elle se sentir comment les choses sont ?

Ces trois questions reflètent les intérêts divergents des chercheur.e.s en IA, des scientifiques cognitifs et des philosophes, respectivement. Les réponses scientifiques à ces questions sont en cours de discussion. Elles dépendent des définitions de « l'intelligence » et de la « conscience », et de quelles « machines » il s'agit.
Les propositions importantes en philosophie de l'IA comprennent :

  • Test de Turing : « Si une machine se comporte aussi intelligemment qu'un être humain, alors elle est aussi intelligente qu'un être humain. »[2].
  • La proposition Dartmouth : « Chaque aspect de l'apprentissage ou de toute autre caractéristique de l'intelligence peut être si précisément détaillé qu'une machine pourrait être créée pour simuler ceux-ci. »[3].
  • L'hypothèse du système de symbole physique de Newell et Simon : « Un système de symbole physique dispose des moyens nécessaires et suffisantes pour l'action intelligente générale. »[4].
  • L'hypothèse de l'IA forte de Searle : « L'ordinateur programmé de manière appropriée avec les bonnes entrées et sorties aurait ainsi un esprit exactement pareil que celui des êtres humains. »[5].
  • Mécanisme de Hobbes : « En effet la raison, en ce sens, n’est rien d’autre que le calcul (c'est-à-dire l’addition et la soustraction) des suites des noms généraux sur lesquels nous nous sommes mis d’accord pour marquer et signifier nos pensées »[6].

Une machine peut-elle faire preuve d'intelligence générale ?[modifier | modifier le code]

Est-il possible de créer une machine qui peut résoudre tous les problèmes que les humains résolvent en utilisant leur intelligence ? Cette question définit la portée de ce que les machines seront en mesure de faire à l'avenir, et oriente ainsi la direction de la recherche en IA. Elle ne concerne que le comportement des machines et ignore les questions d'intérêt pour les psychologues, les chercheur.e.s en sciences cognitives et les philosophes ; pour répondre à cette question, le fait qu'une machine peut vraiment penser (comme une personne pense) ou pas, n'a pas d'importance[7].

La position de base de la plupart des chercheur.e.s en IA se résume dans cette déclaration, qui est apparue dans la proposition pour les conférences de Dartmouth de 1956 :

  • « Chaque aspect de l'apprentissage ou de toute autre caractéristique de l'intelligence peut être si précisément détaillée qu'une machine pourrait être créée pour simuler ceux-ci. »[3]

Les arguments contre ce principe de base doivent montrer que la construction d'un système d'IA fonctionnel est impossible, parce qu'il y a une limite pratique aux capacités des ordinateurs ou qu'il y a une certaine qualité particulière de l'esprit humain qui est nécessaire pour penser et qui ne peut pas être dupliquée par une machine (ou par les méthodes de recherche actuelles en IA). Les arguments en faveur de ce principe de base doivent montrer qu'un tel système est possible.

La première étape pour répondre à la question est de définir clairement l'« intelligence ».

Intelligence[modifier | modifier le code]

L'« interprétation standard » du test de Turing.[8]

Test de Turing[modifier | modifier le code]

Alan Turing, dans un célèbre article de 1950[9], réduit le problème de la définition de l'intelligence à une simple question de conversation. Il suggère que si une machine peut répondre à toutes les questions qui lui sont posées, en utilisant les mêmes mots qu'une personne ordinaire emploierait, alors nous pouvons appeler cette machine intelligente. Une version moderne de sa conception expérimentale utiliserait une salle de chat en ligne, où l'un des participants est une personne réelle et l'un des participants est un programme informatique. Le programme réussit le test si personne ne peut dire lequel des deux participants est humain[2]. Turing note que personne (sauf les philosophes) ne pose jamais la question « peut-on penser ? ». Il écrit « au lieu de discuter sans cesse sur ce point, il est habituel d'avoir une convention polie selon laquelle tout le monde pense »[10]. Le test de Turing étend cette convention polie de machines :

  • « Si une machine se comporte aussi intelligemment qu'un être humain, alors elle est aussi intelligente qu'un être humain. »

Une critique du test de Turing est qu'il est explicitement anthropomorphique. Si notre but est de créer des machines qui sont plus intelligentes que les gens, pourquoi devrions-nous insister pour que nos machines doivent ressembler étroitement aux gens ? Russell et Norvig écrivent que « les textes d'ingénierie aéronautique ne définissent pas le but de leur domaine comme faisant des machines qui volent tellement exactement comme les pigeons qu'elles peuvent tromper les autres pigeons »[11].

Définition de l'agent intelligent[modifier | modifier le code]

IntelligentAgent-SimpleReflex.png

Une récente recherche en IA définit l'intelligence en termes d'agents intelligents. Un « agent » est quelque chose qui perçoit et agit dans un environnement. Une « mesure de performance » définit ce qui compte comme réussite pour l'agent[12].

  • « Si un agent agit de manière à maximiser la valeur attendue d'une mesure de performance basée sur l'expérience passée et sur la connaissance, alors il est intelligent. »[13]

Les définitions comme celle-ci tentent de percevoir l'essence de l'intelligence, mais ont l'inconvénient de ne pas parvenir à faire la distinction entre le bon sens « des choses qui pensent » et « des choses qui ne sont pas ». Par cette définition, même un thermostat a une intelligence rudimentaire et une conscience[14].

Arguments qu'une machine peut faire preuve d'intelligence générale[modifier | modifier le code]

Le cerveau peut être simulé[modifier | modifier le code]

Un examen par IRM d'un cerveau normal d'adulte humain.

Hubert Dreyfus décrit cet argument en faisant valoir que «si le système nerveux obéit aux lois de la physique et de la chimie, et que nous avons toutes les raisons de supposer qu'il le fait, alors .... nous ... devrions être en mesure de reproduire le comportement dusystème nerveux avec un certain dispositif physique.»[15] Cet argument, introduit dès 1943[16] et vivement décrit par Hans Moravec en 1988[17], est maintenant associé au futurologue Ray Kurzweil, qui estime que la puissance de l'ordinateur sera suffisant pour une simulation d'un cerveau complet d'ici l'an 2029[18]. Une simulation en temps-non-réel d'un modèle thalamocorticale qui a la taille du cerveau humain (1011 neurones) a été réalisée en 2005[19], et il a fallu 50 jours pour simuler 1 seconde de la dynamique du cerveau par un cluster de 27 processeurs (voir aussi [20]).

Searle souligne que, en principe, tout peut être simulé par un ordinateur; amenant ainsi la définition à son point de rupture, conduit à la conclusion que tout processus peut techniquement être considéré comme un «calcul»[21]. Ainsi, simplement en imitant le fonctionnement d'un cerveau serait en soi un aveu d'ignorance en ce qui concerne l'intelligence et la nature de l'esprit.

La pensée humaine est le traitement des symboles[modifier | modifier le code]

En 1963, Allen Newell et Herbert A. Simon ont proposé que la « manipulation de symboles » était l'essence de l'intelligence humaine et artificielle. Ils ont écrit :

  • Un système de symbole physique dispose des moyens nécessaires et suffisants pour l'action intelligente générale.[4]

Cette affirmation est très forte : elle implique à la fois que la pensée humaine est une sorte de manipulation de symboles (car un système de symboles est nécessaire pour l'intelligence) et que les machines peuvent être intelligentes (car un système de symboles est suffisant pour l'intelligence)[22]. Une autre version de cette position a été décrit par le philosophe Hubert Dreyfus, qui l'a appelé « l'hypothèse psychologique »:

  • L'esprit peut être considéré comme un dispositif fonctionnant sur les bits d'information selon des règles formelles.[23]

Une distinction est généralement faite entre le type de symboles de haut niveau qui correspondent à des objets dans le monde, tels que <chien>, <chien>et<queue> ou <queue>, et les « symboles » plus complexes qui sont présents dans une machine, comme un réseau neuronal. Les premières recherches dans IA, par John Haugeland, étaient axées sur ce genre de symboles de haut niveau[24].

Arguments contre le traitement des symboles[modifier | modifier le code]

Ces arguments montrent que la pensée humaine ne consiste pas (uniquement) à une manipulation de symboles de haut niveau. Ils ne montrent pas que l'intelligence artificielle est impossible, seulement qu'il nécessite plus le traitement de symboles.

Arguments gödeliens anti-mécanistes[modifier | modifier le code]

En 1931, Kurt Gödel a prouvé avec son théorème d'incomplétude qu'il est toujours possible de construire une «déclaration de Gödel» qu'un système formel logique donné (comme un programme de manipulation de symboles de haut niveau) ne pourra pas prouver. En dépit d'être une vraie déclaration, la déclaration de Gödel est indémontrable dans le système donné. Plus spéculativement, Gödel a conjecturé que l'esprit humain peut éventuellement correctement déterminer la vérité ou la fausseté de tout énoncé mathématique bien fondée (y compris toute déclaration de Gödel), et le pouvoir que par conséquent l'esprit humain ne se réduit pas à un mécanisme[25]. Le philosophe John Lucas (depuis 1961) etRoger Penrose (depuis 1989) ont défendu cet argument philosophique anti-mécaniste[26].

Dreyfus: la primauté des compétences inconscientes[modifier | modifier le code]

Hubert Dreyfus a fait valoir que l'intelligence et l'expertise humaine dépendait principalement des instincts inconscients plutôt que de la manipulation symbolique consciente, et a fait valoir que ces compétences inconscientes ne seraient jamais pris en compte dans les règles formelles[27].

L'argument de Dreyfus avait été anticipé par Turing dans son article de 1950 «Computing Machinery and Intelligence»[28] Turing a fait valoir en réponse que, simplement parce que nous ne connaissons pas les règles qui régissent un comportement complexe, cela ne signifie pas qu'il n'y a pas de telles règles qui existent. Il a écrit: «nous ne pouvons pas si facilement nous convaincre de l'absence de lois complètes du comportement ... La seule façon de trouver de telles lois est l'observation scientifique.»[29]

Une machine peut-elle avoir un esprit, une conscience et des états mentaux ?[modifier | modifier le code]

Ceci est une question philosophique, liée au problème des autres esprits et au problème difficile de la conscience. La question tourne autour d'une position définie par John Searle comme « IA forte » :

  • Un système de symbole physique peut avoir un esprit et des états mentaux.[5]

Searle a distingué cette position à partir de ce qu'il a appelé « IA faible » :

  • Un système de symbole physique peut agir intelligemment.[5]

Searle a introduit les termes pour isoler l'IA forte de l'IA faible. Il a fait valoir que, même si nous supposons que nous avions un programme informatique qui agi exactement comme un esprit humain, il y aurait encore une question philosophique difficile à répondre[5].

Aucune des deux positions de Searle sont de grande préoccupation pour la recherche en IA, car ils ne répondent pas directement à la question « une machine peut-elle faire preuve d'intelligence générale ? » (sauf si elle peut aussi montrer que la conscience est nécessaire à l'intelligence). Turing a écrit : « je ne veux pas donner l'impression que je pense qu'il n'y a pas de mystère sur la conscience... mais je ne pense pas que ces mystères doivent nécessairement être résolus avant que nous puissions répondre à la question [de savoir si les machines peuvent penser]. » Russell et Norvig conviennent que : « la plupart des chercheurs en IA prennent l'hypothèse de l'IA faible pour acquis, et ne se soucient pas de l'hypothèse de l'IA forte. »[30].

Il y a quelques chercheurs qui pensent que la conscience est un élément essentiel de l'intelligence, comme Igor Aleksander, Stan Franklin, Ron Sun et Pentti Haikonen, bien que leur définition de « conscience » est très proche de « l'intelligence » (voir la conscience artificielle).

Avant de pouvoir répondre à cette question, nous devons savoir ce que nous entendons par « esprits », « états mentaux » et « conscience ».

Conscience, esprits, états mentaux, sens[modifier | modifier le code]

Les mots « esprit » et « conscience » sont utilisés par les différentes communautés de différentes manières. Les auteurs de science-fiction utilisent le mot « conscience » pour décrire une propriété essentielle qui nous rend humains : une machine ou un extraterrestre qui est « conscient » sera présenté comme un caractère pleinement humain, avec une intelligence, des désirs, de la volonté, perspicacité, fierté, etc. Pour d'autres, les mots « esprit » ou « conscience » sont utilisés comme une sorte de synonyme de l'âme.

Pour les philosophes, les neuroscientifiques et les scientifiques cognitifs, les mots sont utilisés d'une manière qui est à la fois plus précise et plus banale : ils se réfèrent au familier, à l'expérience de tous les jours d'avoir une « pensée dans votre tête », comme une perception, un rêve, une intention ou un plan, ou dire quelque chose ou comprendre quelque chose.

Les philosophes appellent cela le problème difficile de la conscience. Il est la dernière version d'un problème classique en philosophie de l'esprit appelé le « problème corps-esprit ». Un problème relatif à celui-ci est le problème de la signification ou de compréhension (que les philosophes appellent l'« intentionnalité ») : quel est le lien entre nos pensées et ce que nous pensons ? Un troisième problème est le problème de l'expérience (ou « phénoménologie ») : si deux personnes voient la même chose, ont-elles la même expérience ? Ou y a-t-il des choses « à l'intérieur de leur tête » (appelées « qualia ») qui peuvent être différentes d'une personne à une autre[31] ?

Les neurobiologistes pensent que tous ces problèmes seront résolus lorsque nous commençons à identifier les corrélats neuronaux de la conscience : la relation réelle entre les machineries dans nos têtes et ses propriétés collectives tels que l'esprit, l'expérience et la compréhension. Certaines des critiques les plus sévères de l'intelligence artificielle conviennent que le cerveau est juste une machine, et que la conscience et l'intelligence sont le résultat de processus physiques provenant du cerveau. La question philosophique difficile est la suivante : est-ce qu'un programme informatique, en cours d'exécution sur une machine numérique qui mélange les chiffres binaires « zéro » et « un », peut dupliquer la capacité des neurones pour créer des esprits, avec des états mentaux (comme la compréhension ou la perception), et finalement, l'expérience de la conscience ?

La pensée est-elle une forme de calcul ?[modifier | modifier le code]

La théorie computationnelle de l'esprit ou « computationnalisme » affirme que la relation entre l'esprit et le cerveau est similaire (sinon identique) à la relation entre un programme en cours d'exécution et un ordinateur. Cette idée a des racines philosophiques de chez Hobbes, Leibniz, Hume et même Kant[32]. La dernière version de la théorie est associée aux philosophes Hilary Putnam et Jerry Fodor[33].

Cette question porte sur nos questions précédentes : si le cerveau humain est une sorte d'ordinateur, les ordinateurs peuvent être à la fois intelligents et conscients, en répondant aux questions pratiques et philosophiques de l'IA. En termes de question pratique de l'IA (« une machine peut-elle faire preuve d'intelligence générale ? »), Certaines versions du computationalisme font la déclaration suivante (comme Hobbes a écrit) :

  • Le raisonnement n'est rien, mais l'estime[6].

En d'autres termes, notre intelligence découle d'une forme de calcul, semblable à l'arithmétique. Telle est l'hypothèse du système de symbole physique discutée ci-dessus, et cela implique que l'intelligence artificielle est possible. La question philosophique de l'IA (« une machine peut-elle avoir un esprit, des états mentaux et une conscience ? »), La plupart des versions du computationalisme déclarent que (comme Stevan Harnad le caractérise) :

  • Les états mentaux ne sont que des implémentations de programmes informatiques[34].

Autres questions liées[modifier | modifier le code]

Alan Turing a noté qu'il existe de nombreux arguments de la forme «une machine ne fera jamais X», où X peut être beaucoup de choses, telles que :

Être gentil, ingénieux, beau, convivial, faire preuve d'initiative, avoir un sens de l'humour, dire le bien du mal, faire des erreurs, tomber amoureux, profiter de fraises et de la crème, faire tomber quelqu'un en amour, apprendre, utilisez les mots correctement, faire l'objet de sa propre pensée, ont autant de diversité du comportement comme un homme, faire quelque chose de vraiment nouveau[35].

Turing fait valoir que ces objections sont souvent basées sur des hypothèses naïves et sont des «formes déguisées de l'argument de la conscience». L'écriture d'un programme qui présente l'un de ces comportements «ne fera pas grande impression»[35]

Une machine peut-elle avoir des émotions ?[modifier | modifier le code]

Si les «émotions» sont définies uniquement en fonction de leur effet sur le comportement ou sur la façon dont elles fonctionnent à l'intérieur d'un organisme, alors les émotions peuvent être considérées comme un mécanisme qui utilise un agent intelligent pour maximiser l'utilité de ses actions[36]. La peur est une source d'urgence. L'empathie est une composante nécessaire à la bonne interaction homme-machine[36],[37].

Cependant, les émotions peuvent également être définies en fonction de leur qualité subjective, du ressenti d'une émotion. La question de savoir si la machine ressent réellement une émotion, ou si elle agit simplement comme si elle ressent une émotion, est en fait la question philosophique, «une machine peut-elle être consciente?» sous une autre forme[38].

Une machine peut-elle avoir conscience de soi ?[modifier | modifier le code]

La «conscience de soi», comme indiqué ci-dessus, est parfois utilisé par les auteurs de science-fiction comme un caractère pleinement humain qui fait d'un humain un humain. Alan Turing traite toutes les autres propriétés des êtres humains et se réduit la question suivante «une machine peut-elle faire l'objet de sa propre pensée ?» Peut-on penser à soi-même ? Vu de cette manière, il est évident qu'un programme peut rendre compte de ses propres états internes, comme un débogueur[35].

Une machine peut-elle être originale ou créative ?[modifier | modifier le code]

Turing réduit cela à la question de savoir si une machine peut «nous prendre par surprise», et fait valoir que cela est évidemment vrai, comme tout programmeur peut en témoigner. Il note que, avec une capacité de stockage suffisante, un ordinateur peut se comporter dans un nombre astronomique de façons différentes[39]. (le mathématicien Douglas Lenat, à titre d'exemple, combine des idées pour découvrir de nouvelles vérités mathématiques.)

Une machine peut-elle être bénévole ou hostile ?[modifier | modifier le code]

Cette question (comme beaucoup d'autres en philosophie de l'intelligence artificielle) peut se présenter sous deux formes. L'«hostilité» peut être défini comme synonyme de «dangereux». Ou il peut être défini en termes d'intention: une machine peut-elle «délibérément» faire du mal[38] ?

La question de savoir si des machines hautement intelligentes et totalement autonomes serait dangereuses, a été examinée en détail par des futurologues (tels que l'Institut Singularity).

Vernor Vinge a suggéré que dans quelques années seulement, les ordinateurs vont soudainement devenir des milliers, voire des millions, de fois plus intelligents que les humains. Il appelle cela «la Singularité»[40]. Il suggère que cela peut être un peu ou très dangereux pour les humains[41]. Cette question est examinée par une philosophie appelée le Singularitarianisme.

Certains experts ont mis en doute l'utilisation de robots au combat militaire, en particulier lorsque l'on attribue à de tels robots un certain degré d'autonomie[42]. La marine américaine a financé un rapport qui indique que les robots militaires deviennent plus complexes[43],[44].

Le président de Association for the Advancement of Artificial Intelligence a commandé une étude pour examiner cette question[45]. Une solution envisageable serait alors de créer des programmes comme dispositif d'acquisition de langage qui pourrait émuler l'interaction humaine.

Certains ont suggéré la nécessité de construire une «IA gentille», ce qui signifie que les progrès devront également inclure un effort pour rendre l'IA intrinsèquement amicale et humaine[46].

Une machine peut-elle avoir une âme ?[modifier | modifier le code]

Au final, ceux qui croient en l'existence d'une âme peuvent soutenir que «la pensée est une fonction de l'âme immortelle de l'homme ». Alan Turing l'a appelé «l'objection théologique»[47].

Conclusion et thèmes pour la recherche future[modifier | modifier le code]

John McCarthy, qui a créé le langage de programmation LISP pour l'IA, et le concept d'IA lui-même, dit que certains philosophes de l'IA vont faire la bataille avec l'idée que :

  • l'IA est impossible (Dreyfus),
  • l'IA est immorale (Weizenbaum),
  • Le concept même d'IA est incohérent (Searle).

Références[modifier | modifier le code]

  1. Russell et Norvig 2003, p. 947 define the philosophy of AI as consisting of the first two questions, and the additional question of the ethics of artificial intelligence.
  2. a et b This is a paraphrase of the essential point of the Turing test.
  3. a et b McCarthy et al. 1955.
  4. a et b Newell et Simon 1976 and Russell et Norvig 2003, p. 18.
  5. a, b, c et d This version is from Searle (1999), and is also quoted in Dennett 1991, p. 435.
  6. a et b Hobbes 1651, chpt. 5.
  7. See Russell et Norvig 2003, p. 3, where they make the distinction between acting rationally and being rational, and define AI as the study of the former.
  8. Saygin 2000.
  9. Turing 1950 and see Russell et Norvig 2003, p. 948, where they call his paper "famous" and write "Turing examined a wide variety of possible objections to the possibility of intelligent machines, including virtually all of those that have been raised in the half century since his paper appeared."
  10. Turing 1950 under "The Argument from Consciousness".
  11. Russell et Norvig 2003, p. 3
  12. Russell et Norvig 2003, p. 4–5, 32, 35, 36 and 56
  13. Russell and Norvig would prefer the word "rational" to "intelligent".
  14. Russell & Norvig (2003, p. 48–52) consider a thermostat a simple form of intelligent agent, known as a reflex agent.
  15. Dreyfus 1972, p. 106
  16. McCullough et Pitts 1943
  17. Moravec 1988
  18. Kurzweil 2005, p. 262.
  19. Eugene Izhikevich, « Eugene M. Izhikevich, Large-Scale Simulation of the Human Brain », Vesicle.nsi.edu, (consulté le 29 juillet 2010)
  20. http://vesicle.nsi.edu/users/izhikevich/publications/large-scale_model_of_human_brain.pdf
  21. Searle 1980, p. 7
  22. Searle writes "I like the straight forwardness of the claim."
  23. Dreyfus 1979, p. 156
  24. Haugeland 1985, p. 5
  25. Gödel, Kurt, 1951, Some basic theorems on the foundations of mathematics and their implications in Solomon Feferman, ed., 1995.
  26. Lucas 1961, Russell et Norvig 2003, p. 949–950, Hofstadter 1979, p. 471–473,476–477
  27. Dreyfus 1972, Dreyfus 1979, Dreyfus et Dreyfus 1986.
  28. Russell et Norvig 2003, p. 950–51
  29. Turing 1950 under "(8) The Argument from the Informality of Behavior"
  30. Russell et Norvig 2003, p. 947.
  31. Russell et Norvig 2003, p. 954–956.
  32. Dreyfus 1979, p. 156, Haugeland 1985, p. 15–44.
  33. Horst 2009.
  34. Harnad 2001.
  35. a, b et c Turing 1950 under "(5) Arguments from Various Disabilities"
  36. a et b Quoted in Crevier 1993, p. 266
  37. Crevier 1993, p. 266
  38. a et b Turing 1950 under "(4) The Argument from Consciousness".
  39. Turing 1950 under "(5) Argument from Various Disabilities"
  40. Scientists Worry Machines May Outsmart Man By JOHN MARKOFF, NY Times, July 26, 2009.
  41. The Coming Technological Singularity: How to Survive in the Post-Human Era, by Vernor Vinge, Department of Mathematical Sciences, San Diego State University, (c) 1993 by Vernor Vinge.
  42. Call for debate on killer robots, By Jason Palmer, Science and technology reporter, BBC News, 8/3/09.
  43. Science New Navy-funded Report Warns of War Robots Going "Terminator", by Jason Mick (Blog), dailytech.com, February 17, 2009.
  44. Navy report warns of robot uprising, suggests a strong moral compass, by Joseph L. Flatley engadget.com, Feb 18th 2009.
  45. AAAI Presidential Panel on Long-Term AI Futures 2008-2009 Study, Association for the Advancement of Artificial Intelligence, Accessed 7/26/09.
  46. Article at Asimovlaws.com, July 2004, accessed 7/27/09.
  47. Turing 1950 under "(1) The Theological Objection", although it should be noted that he also writes "I am not very impressed with theological arguments whatever they may be used to support"

Voir aussi[modifier | modifier le code]

Articles connexes[modifier | modifier le code]

Bibliographie[modifier | modifier le code]