Discussion:Intelligence artificielle/Archive 1

Le contenu de la page n’est pas pris en charge dans d’autres langues.
Une page de Wikipédia, l'encyclopédie libre.
Autres discussions [liste]

Médiation[modifier le code]

Cet article a fait l'objet d'une médiation, voir la page du conflit.

Je ne comprend pas, car la date de la médiation indique: 3 mars 2008. Est-ce une erreur? --Nabeth (d) 27 août 2009 à 21:38 (CEST)
Non, c'est juste que j'avais oublié d'enlever le bandeau. Il faut voir ce lien comme un archivage tardif. Émoticône sourire Petit Djul tolc2mi - 30 août 2009 à 10:53 (CEST)

système experts ?[modifier le code]

Il me semble que les système experts sont établis à partir de l'intelligence artificielle mais que ce n'est pas une technique à proprement parler ; plutôt une application ; qu'en pensez vous ?
szdavid 24 jan 2004 à 15:40 (CET)

Exact, c'est bien une application aujourd'hui. Cependant, il faut tout de même que l'article dise un mot sur MYCIN et EMYCIN qui sont incontournables dans le domaine. Comme l'article est déjà très long, peut-être devra-t-il éclater en petits articles qui, en ce cas, feraient partie de la catégorie Intelligence artificielle, elle-même présentant leur articulation et comprenant juste le plan du présent article à titre de "table d'orientation". Cette idée semble assez séduisante :-) 81.65.27.14 12 septembre 2005 à 04:54 (CEST)
Pas tout à fait d'accord. Les systèmes experts ont été associés à un ensemble d'outils permettant de les concevoir tels les moteur d'inférence. --Nabeth (d) 27 août 2009 à 21:46 (CEST)
Par ailleurs l'intelligence artificielle ne doit pas uniquement être associé à une technique. Pour moi, la notion de systèmes expert a toute sa place dans intelligence artificielle. --Nabeth (d) 28 août 2009 à 17:44 (CEST)

"langage spécialisé"[modifier le code]

Parler de "langage spécialisé" pour désigner C ou C++ est pour le moins curieux. Ils sont utilisés dans à peu près tous les domaines de l'informatique, et parfois au détriment de langages plus adaptés. J'enlève l'adjectif. Virgile 6 mar 2004 à 20:50 (CET)

C (et son compagnon de beuverie C++) est spécialisé dans le sens où il colle de très près au hardware. Permet de la bidouille de bits, l'arithmétique de pointeurs, etc... Très efficace pour écrire un noyau ou bien un bout de code qui a besoin d'un maximum d'efficacité. Très *peu* efficace (si l'efficacité est le temps passé par le programmeur) pour écrire *rapidement* et sans bugs (débordements de buffers) une grosse appli, sophistiquée. Cf dixième loi de Greenspun : "tout programme C ou Fortran suffisamment compliqué contient une implémentation informelle, lente et archi-boguée de la moitié de CommonLisp". Dans ce sens, Lisp (et d'autres langages de "haut niveau") sont plus généralistes que C/C++. Certains ont dit également : "C combine la puissance de l'assembleur avec la portabilité de l'assembleur", mais c'est une _sorte_ de blague... Je peux en rajouter.

Dans la phrase de départ, j'avais compris spécialisé au sens de "attaché à un domaine particulier", en l'occurrence l'intelligence artificielle, et non "langage de bas niveau". Si on demande de citer un langage spécialisé pour l'AI, je ne pense pas que ce soit C qui arrive en tête (surtout comparé à prolog). Virgile
Langage de bas niveau pourrait remplacer avantageusement l'expression langage spécialisé en ce qui concerne le C/C++ GL 26 nov 2004 à 09:22 (CET)
Ok, mais si Lisp a été utilisé et développé par les gens qui font de l'IA (ils ont besoin du langage le plus flexible et expressif), ce n'est plus le cas depuis longtemps. D'un autre côté, C et C++ sont réellement utilisés en IA actuellement (combien de progs. Lisp ont été réécrits dans ces langages ? plein ! (quelle précision :)). Aurelienc

D'un autre côté le succès de C/C++ pour construire de grosses applis s'explique par deux facteurs : efficacité à une époque où le hardware était lent et sans RAM, et (depuis qu'Unix est populaire) plein de main-d'oeuvre familière avec cette famille de langages (Java/C# inclus ces jours-ci). Aurelienc

En effet par exemple, prenons le cas de Prolog, ce langage est déclaratif mais les programmeurs sont surtout habitués à des traits impératifs.. alors kan on sait faire un algorithme avec des boucles, c'est pas forcement evident en prolog (y en a pas !)... Par ailleurs Prolog certaines choses sont difficiles comme la capacité à gérer efficacement la mémoire ... Cependant je classe pas forcement Prolog dnas l'IA, c'est surtout un langage qui permet de modeliser tres facilement (normal c declaratif) mais aussi un des langages où on peut revenir en arrière dans le programme, ie remonter le temps logique tres facilement grâce au backtracking JoseBove


Le C et le C++ sont deux langages fondamentalement différents. La caractérisation de C explicitée plus haut ne s'applique donc pas à C++. Utilisateur:Mathias Gaunard


Prolog est considéré comme un langage propre à l'IA par sa syntaxe proche de la logique des prédicats ; il est donc, de ce fait un moteur d'inférence d'ordre 1. Son appartenance à la famille des langages déclaratifs n'a rien à voir ; LISP est à la fois dans la famille des langages impératifs et des langages fonctionnels. Par ailleurs, il existe un théorème liant Prolog et Lisp : A partir d'une fonction LISP d'arité n, nous pouvons toujours construire un prédicat PROLOG d'arité (n+1). Ce prédicat pourra avoir d'autres utilisations. Ticho 17 septembre 2006 à 17:20 (CEST)

Extrait d'un bouquin[modifier le code]

Bonjour,

peut-être serez-vous intéressés par l’analyse ci-dessous ?, extraite d’un de mes ouvrages.

Cordialement

P. Moyne – www.paulmoyne.com ; www.apparitiondelavie.com ; www.evolutiondesespeces.com ; www.emergencedelhomme.com

Cerveau et ordinateur

Nombre de chercheurs s'échinent à comparer le cerveau et l'ordinateur comme si ce dernier était représentatif d'une intelligence artificielle.

Quid de cette intelligence ?



Toute structure destinée à traiter des informations numérisées,

qu'elle soit constituée de matière inerte comme l'ordinateur, ou de matière animée comme le cerveau,

se distingue, en première analyse, par deux spécificités majeures :

- sa capacité à réaliser en un minimum de temps, des suites corrélées de basculements binaires élémentaires  : "de 0 à 1" ou "de 1 à 0" (d'état non activé à état activé ou d'état activé à état non activé).

Comme unité de mesure et par commodité, nous retiendrons le gobes (10 puissance 9 opérations binaires élémentaires par seconde),

- sa mémoire quantifiée en vecteurs binaires de l'information, c'est à dire en bits représentatifs des nombres "0" ou "1" (des états non activé ou activé).


Choisissons l'activité des cellules photosensibles qui constituent le fond de l'oeil (ce sont les cônes et les bâtonnets de la rétine distribués autour de l'axe dit visuel).


Compte tenu de l'expérience acquise par les informaticiens dans la numérisation, la mémorisation et l'animation des images,

et imaginant la difficulté qu'il y a à saisir de manière subordonnée et cohérente, les caractères d'état des ondes lumineuses, de les différencier, in fine, de les recomposer pour former dans le domaine de l'abstraction et suivant des processus innés, les imageries virtuelles qui servent de référentiel,

(des processus beaucoup plus complexes que ceux résolus par les caméras numériques),

il n'est pas déraisonnable de supposer que l'analyse d'un point-image saisi par l'oeil nécessite au moins 10 traitements successifs par seconde,

chaque traitement impliquant lui-même, 100 opérations binaires élémentaires,

soit par cellule photosensible 1000 opérations binaires élémentaires par seconde.


Bien évidemment chaque cellule du corps est également un petit cerveau en interaction avec le cerveau central, de telle sorte qu'il y a correspondance entre les activités cellulaires et neuronales.

Notre corps étant vraisemblablement constitué de plus de 10.000 milliards de cellules manifestant un niveau opérationnel aussi intenses que celui des cônes et des bâtonnets de l'oeil,

le cerveau devrait ainsi permettre de réaliser plus de 10 millions de gobes.


Cette estimation nous semble cependant très en dessous de la réalité.

En effet, au niveau de la cellule se déroulent d'incessantes effectivités créatrices impliquant, elles aussi, des myriades d'extraordinaires opérations binaires ; songez aux effectivités créatrices inhérentes au processus immunitaire.

Rappelons qu'en quelques milliardièmes de seconde sont notamment imaginées, synthétisées, expérimentées et mises en oeuvre, en fonction d'expériences du vécu et dans le cadre d'un système unique de repères de valeur, diverses molécules destinées à combattre les agents pathogènes,

des molécules dont la structuration échappera longtemps encore, à l'entendement conscient.


D'autre part, croyez-vous que l'élaboration des concepts, des idées, des anticipations du devenir, ..., qui, eux aussi, meublent le(notre) domaine de l'abstraction, ne nécessitent aucun traitement d'information ?

Bien évidemment non.


Pour estimer le nombre de basculements binaires élémentaires traités par le cerveau, il convient donc de prendre en compte la dynamique la plus intériorisé de celui-ci.

C'est pourquoi nous préférons nous inspirer des travaux de John C Ecclès (excusez le nécessaire ésotérisme) :

"L'activité clé d'une synapse consiste en ce qu'une des vésicules synaptiques libère dans la fente intersynaptique la substance transmettrice qu'elle contient ... Il y a conservation du transmetteur synaptique par un processus qui à ce jour n'a pas encore été élucidé ... Une impulsion nerveuse envoie un grand nombre d'ions Ca2+ dans un bouton, des milliers de fois plus que les quatre ions Ca2+requis pour l'exocytose. Aussi l'insuffisance d'apport en ions Ca2+ n'est-elle pas la cause de la réaction de conservation que l'on observe invariablement dans le phénomène d'exocytose, où il ne s'en produit jamais plus d'une lorsqu'une impulsion pénètre dans le bouton..."...

"...l'action de l'intention mentale se résume à modifier la probabilité de l'émission vésiculaire des synapses activés" (cf. Comment la conscience contrôle le cerveau),


et nous en remettre aux estimations de Stuart Hammeroff :


"Si l'on fait l'hypothèse que les microtubes sont disposés en parallèle et espacés de 100 nanomètres, et que l'on prend en compte dans le volume cérébral ce qui correspond au cytoplasme neuronal, on arrive approximativement au nombre de 1014 microtubes dans le cerveau humain. Si chacun d'eux peut changer d'état toutes les 10-9 ou toutes les 10-11 seconde, l'ensemble des microtubes cérébraux présente donc une capacité de traitement de l'information d'environ 1023 à 1025 bits par seconde."


Le cerveau humain est ainsi capable d'assurer au moins " 10 puissance 14" à " 10 puissance 16" gobes.


Quant à ses capacités mémoire, elles sont corrélativement grandissimes, à la limite de l'entendement, quasiment sans commune mesure avec celles permises par les configurations électromagnétiques des ordinateurs,

et ce d'autant plus que le cerveau ne peut être dissocié de l'ensemble des cellules du corps (rappelons qu'une cellule comporte plus 1000 milliards d'atomes, ceux-ci étant les constituants de base des mémoires biologiques).


Pensez entre autres, aux myriades d'informations et de directives à effet biologique et à effet comportemental, mémorisées, par le biais d'atomes, sur l'ADN et l'ARN.


En conséquence, il nous semble utopique de chercher à quantifier l'équivalent mémoire de l'indissociable ensemble "cerveau - corps".

Nous estimons néanmoins qu'il est amplement supérieur à " 10 puissance 25" bits.



Qu 'en est-il en ce début du troisième millénaire, des capacités maximales de traitement de l'information, atteintes par l'ordinateur ?


A notre connaissance, le plus gros ordinateur actuel est le Cray-x1 fabriqué par la firme Cray Inc..

Sa puissance de calcul s'élève à 52.400 milliards d'opérations par seconde, 52.400 gobes (soit 52,4 téraflops en langage anglo-saxon).

Il comprend trois grosses armoires informatiques, un encombrement extrêmement réduit en regard des super ordinateurs classiques, certains occupant une surface équivalente à celle d'un terrain de football.

Pour 2010, la firme Cray s'est fixée comme objectif : un million de milliards d'opérations par seconde avec son "pétaflop", soit " 10 puissance 6" gobes.


Pour information,

- le premier super ordinateur conçu par Seymour Cray, en 1976, exécutait 160 millions d'opérations par seconde.

- "Earth Simulator" au japon, fabriqué par Nec, est un réseau de 640 ordinateurs capables de 40 téraflops (encombrement au sol : 65x50 mètres).

Conclusions

En comparant les performances respectives du super ordinateur actuellement en étude (" 10 puissance 6" gobes) avec celles de notre cerveau (" 10 puissance 14" à " 10 puissance 16" gobes), nous pouvons considérer que l'activité de ce dernier est équivalente à celle de plus de 100 millions de super ordinateurs de l'an 2010 !

La suprématie du cerveau humain apparaît dès lors incontestable, bien que l'homme ne puisse pas rivaliser avec les calculateurs électroniques dans nombre de domaines.

Autre remarque majeure confortant ce point de vue :

l'entité qui nous anime et qui, au sein du cerveau, initie les basculements des bits et juge du "sens", s'avère directement impliquée dans l'ensemble du corps, par le biais de micro logiciels associés aux cellules.

Les neurones, cellules singulières, ne permettent-ils pas à cette entité de se reconnaître sous le couvert du je (moi, ego, sujet, esprit) ?,

un fait essentiel que les tenants de l'intelligence artificielle se gardent de rappeler !


Ainsi, l'ordinateur sera, et à jamais, uniquement capable de stocker et de manipuler des bits dans le cadre des logiciels qui lui sont assignés, même si, demain, certaines structures de matière inerte qui le composent actuellement, sont remplacées par des structures biologiques.


Plus précisément, il demeurera toujours un outil n'ayant aucune maîtrise de lui-même, ne serait-ce que parce qu'il ne s'auto-pose jamais de problématiques émergeant au conscient, qu'il ne s'en auto-posera jamais, sans qu'un esprit, celui de l'homme, ne l'ait fait avant et pour lui,

et ce, en exprimant des intentionnalités par le biais de logiciels.


Chacun d'entre vous jugera du niveau d'intelligence de l'ordinateur et du contenu à donner au concept d'intelligence artificielle !

L'analyse est réductrice  : comparer des cellules à des opérations binaires est très simpliste, alors qu'il y a nombre de réactions chimiques sous-jacentes qui déterminent le comportement de chaque cellule. Cette analyse n'a rien de scientifique. J'ai l'impression qu'il s'agit d'une analyse réalisée sur le coin d'une table par n'importe qui, en prenant quelques statistiques sur les superordinateurs. À moins de preuve que ceci vient d'une étude sérieuse, je ne pense pas que ça mérite de se trouver dans une encyclopédie. D'autre part, il est évident qu'un ordinateur ne reproduira pas de sitôt à 100 % une réplique du cerveau humain en simulant l'ensemble des neurones. Un ordinateur a déjà de la difficulté à simuler un réseau neuronal de quelques centaines de neurones, et généralement ce sont des neurones énormément simplifiés. D'ailleurs, très peu de chercheurs poursuivent le but de reproduire l'humain. Pfv2 13 août 2005 à 22:20 (CEST)

fatiguante cette page de discussion, ya moyen de tous netoyer pour repartir au calme ? ~ þaצo  16 juillet 2005 à 01:43 (CEST)

On pourrait archiver les discussions Pfv2 3 octobre 2005 à 18:31 (CEST)

Quand on trouve une page fatiguante, et bien tout simplement on laisse tomber et passe à une autre occupation. Mais par pitié ne touchons pas à la libre expression, dans les limites qui sont fixées ici. Cachez ce sein que je ne saurais voir ? Ou fermez les yeux et laissez le être ? Le choix dans une société de tolérance raisonnable semble fait. Lore7634 (discuter) 24 août 2018 à 22:19 (CEST)

Libre expression ?? Je ne savais pas que wikipédia était un projet pour permettre la libre expression de chacun... Je croyais que le projet était de produire une encyclopédie sérieuse... - MaxLanar[discutons] 18 janvier 2021 à 01:37 (CET)

Bibliographie[modifier le code]

J'ai tenté de mettre une bibliographie conséquente, mais en "compactant" un minimum. On veut encore mettre autre chose, et c'et pas un sujet qu'on va developper. Traroth | @ 11 août 2005 à 15:58 (CEST)

Grand noms[modifier le code]

J'ai changé "spécialistes de l'intelligence artificielle" par "grand noms de l'IA", car des spécialistes il y en a des milliers. Cette catégorie ne répertorie que les personnes célèbres. Pfv2 14 août 2005 à 00:46 (CEST)

juste une remarque sur ton message, il faut mieu le mettre en bas, c'est les us est coutumes de compléter la page en bas, on garde une espèce de chronologie. Sinon ta modification me semble bien. ~ þayo ♪♫ 14 août 2005 à 00:50 (CEST)
C'est fait! Merci du commentaire Pfv2 15 août 2005 à 03:19 (CEST) ;)

Plan à revoir ?[modifier le code]

L'article comporte beaucoup de matière, sans toutefois permettre une vision d'ensemble très claire.
Pourrait-on réfléchir à un plan plus léger en faisant apparaitre les notions importantes avec les principales difficultés, les axes de recherche et les principales techniques, les résultats, etc ? Seraient reportés en annexe les aspects plus documentaires, comme l'IA au cinéma.. --Mbzt 18 août 2005 à 19:37 (CEST)

Pour l'IA au cinéma ce n'est vas vraiment se que l'on peut qualifier d'envahissant, mais bon vue que ça resemble à une liste pourquoi ne pas la mettre séparée ; mais bon, le mieux c'est quand même qu'imaginer et de montrer un plan complet, peut être cette partie y trouvera sa place, et ce serai bien. Passé cette remarque, je n'ai pas les compétances pour réfléchir à un plan. ~ þayo ♪♫ 12 septembre 2005 à 10:31 (CEST)

possibilités[modifier le code]

Je ne comprends pas très bien la différence entre les deux paragraphes suivants :

  1. Impossible avec des machines manipulant des symboles comme les ordinateurs actuels, mais possible avec des systèmes dont l’organisation matérielle mimerait le fonctionnement du cerveau humain (comme des neurones artificiels).
    • Problème : Le système en question répondant exactement de la même façon que sa simulation sur ordinateur - toujours possible - au nom de quel principe leur assigner une différence ? (Thèse CPC de Bruno Marchal)
  2. Impossible avec les ordinateurs classiques manipulant des symboles, mais possible avec des réseaux de neurones formels (dont l'organisation logique et non matérielle s'inspire des neurones biologiques).
    • Problème : le même que pour le point précédent.

Quelqu'un pourrait-il m'éclaircir?

Je suis d'accord, il n'y a pas vraiment de différence. J'ai supprimé le deuxième paragraphe et cité "réseaux de neurones" dans le premier. Plyd /!\ 5 janvier 2006 à 21:30 (CET)
J'ai rétabli et reformulé le paragraphe supprimé pour plus de clarté. En fait, ce paragraphe fait allusion à des circuits électroniques spécialisés reproduisant le fonctionnement des neurones, et non aux réseaux de neurones formels, simulés par voie logicielle. - Almak 7 janvier 2006 à 19:39 (CET)
La puce ZISC d'IBM (puce comportant un peu plus d'une centaine de neurones formels) n'était-elle pas mentionnée dans une version précédente de l'article ? A-t-elle été sabrée elle aussi, au moment même où cette puce n'est plus fabriquée et où sa documentation ne sera plus accessible par le Net ? Ce n'est plus une encyclopédie, ça devient le désert de Gobi, ce truc ! 81.65.26.7 10 décembre 2006 à 15:32 (CET)

Bizarre bizarre[modifier le code]

Je trouve bizarre de lancer des affirmations dans l'introduction (comme Un pilote automatique d'avion, un programme joueur d'échecs ne sont plus aujourd'hui de l'IA), basées sur une définition de l'IA, alors que la première section annonce qu'il y a plusieurs définitions. Personnellement c'est la première fois que j'entends dire qu'une IA peut ne plus en être une 5 ou 10 ans plus tard. Et je trouve ça plutot surprenant. GôTô ¬¬ 9 janvier 2006 à 13:02 (CET) 193.50.104.77 28 novembre 2006 à 18:14 (CET)Oui, tout à fait d'accord. Il est même faux de dire que les échecs, ce n'est plus de l'IA. Ca n'en est plus pour certains, mais pas pour tout le monde. Ma nouvelle proposition pour définir l'IA en tient compte.

Il s'agit simplement de la conséquence immédiate de la définition de Minsky « la construction de programmes informatiques qui s’adonnent à des tâches qui sont, pour l’instant, accomplies de façon plus satisfaisante par des êtres humains car elles demandent des processus mentaux de haut niveau tels que : l’apprentissage perceptuel, l’organisation de la mémoire et le raisonnement critique ». Dès lors qu'une tâche est accomplie par une machine de façon aussi satisfaisante que par un être humain, la tâche correspondance cesse aussitôt de se rapporter à la définition de Minsky. Il insistait bien là-dessus dans son cours. Est-ce si difficile à comprendre ???
"Ta" définition de l'IA n'a rien à faire dans une encyclopédie, pas plus que n'importe quelle idée personnelle. Utilise ton blog, pour cela. 81.65.26.7 10 décembre 2006 à 15:36 (CET)

Lien externe mort[modifier le code]

Bonjour,

Pendant plusieurs vérifications automatiques, un lien était indisponible. Merci de vérifier si il est bien indisponible et de le remplacer par une version archivée par Internet Archive si c'est le cas. Vous pouvez avoir plus d'informations sur la manière de faire ceci ici. Les erreurs rapportées sont :

Eskimbot 31 janvier 2006 à 05:04 (CET)

Lien externe mort[modifier le code]

Bonjour,

Pendant plusieurs vérifications automatiques, un lien était indisponible. Merci de vérifier si il est bien indisponible et de le remplacer par une version archivée par Internet Archive si c'est le cas. Vous pouvez avoir plus d'informations sur la manière de faire ceci ici. Les erreurs rapportées sont :

Eskimbot 31 janvier 2006 à 05:09 (CET)

Lien externe mort[modifier le code]

Bonjour,

Pendant plusieurs vérifications automatiques, un lien était indisponible. Merci de vérifier si il est bien indisponible et de le remplacer par une version archivée par Internet Archive si c'est le cas. Vous pouvez avoir plus d'informations sur la manière de faire ceci ici. Les erreurs rapportées sont :

Eskimbot 31 janvier 2006 à 05:10 (CET)

Déplacé depuis l'article[modifier le code]

Le "calcul" consistant à multiplier le nombre de neurones par leur fréquence de fonctionnement (environ 100 Hz) ne tient pas debout : tous ne sont pas actifs en même temps, à tout le moins. Je propose de supprimer ce type de remarque qui est archi-fausse et n'apporte rien.

Tous ne sont pas actifs en même temps ? Et comment fait-on donc pour désactiver un neurone ? :-D Le calcul a le mérite de préciser les otrdres de grandeur en présence. Si c'est par un majorant, c'est encore mieux. 81.65.26.7 10 décembre 2006 à 15:40 (CET)

81.249.105.112

il est vrai que cette remarque est une approximation très très grossière de plus est-il raisonnable d'estimer l'"intelligence" simplement à partir du nombre d'opération ? la mémoire on en fait quoi ?

ce qui est écrit maintenant est ... douteux ... mais c'est une question très interessante je trouve.

je suis d'accord que la comparaison est difficile (voire toujours fausse), mais dans le fond une telle comparaison est intéressante. Peut-être faut-il tenter la reformuler. Plyd /!\ 5 avril 2006 à 11:27 (CEST)
ps: n'hésitez pas à vous créer un compte anonyme plutôt que de rester localisé par IP ;)

Il n'était pas vraiment question dans cette article de dire que les ordinateurs avaient une intélligence comparable au humains, mais bien de dire, qu'aujourd'hui nous avons des ordinateurs dont la puissance de calcul dépasse le maximum physiologique que pourra jamais fournir un cerveau humain. Donc, nous dépassons l'extremum de l'intelligence humaine. Pour ce qui est de la mémoire, l'ordinateur peut avoir autant de disque dur qu'il est physiquement possible, les tailles des bases de données dépasse le pétabyte. De plus, nous pouvons considéré que tout les ordinateurs sont interconnecter et peuvent donc utilisé des informations des autres... Dans un sens ou dans l'autre nous sommes dépasser d'années lumières...

Maxime Lavigne

Pertinence d'Écoles françaises enseignant l'IA[modifier le code]

Bonjour, est-il vraiment nécessaire de faire une liste de toutes les écoles enseignant l'IA sachant que la plupart des écoles d'ingénieur proposant une formation en informatique contiennent un cours d'IA, sachant que probablement toutes les universités faisant de l'informatique font de l'IA ? Bref, si on les liste toutes, on en aura vraiment beaucoup. Rien que pour mon coin (Toulouse centre de Rangueil), on peut rajouter l'Enset, Supaero, l'Enac, l'université Paul Sabatier... Je voudrai pas provoquer des colères en supprimant cette partie unilatéralement. CommeCeci 24 mai 2006 à 09:56 (CEST)

je suis d'accord. Toutes les facs de france enseignent l'IA, et la la majorité des écoles d'info et de signal aussi, même si ce n'est pas toujours sous la même forme. je propose la suppression de cette liste. Sylenius 5 juin 2006 à 18:50 (CEST)
Je pense que cette liste est censée lister des écoles n'ont pas qui offre "un cours d'IA", mais tout un cursus orienté IA, telle qu'une spécialisation d'ingénierie ou un DEA.
Maintenant, est-ce que cette liste à lieu d'être (en tous cas dans cette article), je n'ai pas d'avis vraiment tranché. Eden 5 juin 2006 à 19:37 (CEST)
✔️ j'ai supprimé le paragraphe. Peut-être faut-il en faire une catégorie, mais là aussi, ça va être limite, les écoles qui offrent une option de quelques heures en IA et celles qui proposent des spécialités qui ne font que ça. M'enfin, ça n'a pas d'intérêt à mon goût sur cette page, et le nombre de liens externes est déjà trop important. Plyd /!\ 5 juin 2006 à 23:29 (CEST)
Moui, si on commence à classer les écoles par ce qu'elles enseignent précisément, on a pas fini. Eden 7 juin 2006 à 15:44 (CEST)

Ajout d'une rubrique sur les logiciels utilisés dans le domaine de l'IA[modifier le code]

Je pense que l'article manque d'un élément à savoir faire une liste de quelques logiciels couramment utilisé dans pour la conception des programmes dans le domaine de l'IA

dans ou pour ? Dans les 2 cas, plutôt bof, ça risque encore de devenir une longue liste inintéressante de logiciels inconnus (voire commerciaux) comme wikipédia en a le secret... Argumente un peu si tu as une idée précise derrière la tête Sylenius 7 juin 2006 à 16:34 (CEST)
J'ajouterais que ces logiciels auraient plus leur place dans les articles spécifiques dédiés à la technique qui les concerne que dans un article généraliste qui en couvre des dizaines. Eden 7 juin 2006 à 16:46 (CEST)
Un excellent développement existait dans une version antérieure de l'article, qui listait une demi-douzaine de tels logiciels dont MYCIN/EMYCIN et GPS (General Problem Solver), ainsi que leurs résultats (dont une démonstration originale des propriétés d'un triangle isocèle trouvée (par GPS ?) dans les années 60); il y était fait mention aussi du programme de dames anglaises d'Arthur Samuel, qui apprenait de ses erreurs. Je ne sais pas qui a eu l'insconcience de sabrer tout cela et ne chercherai même pas à le savoir. Wikipédia est clairement victime d'une processus d'augmentation d'entropie :-( 81.65.26.7 10 décembre 2006 à 15:28 (CET)

Incohérence[modifier le code]

Je trouve que la première définition de l'intelligence artificielle forte - qui réinjecte ses erreurs dans son comportement - est incohérente avec la définition moins précise du paragraphe juste en dessous. A moins que l'on suppose que la conscience de soi est nécéssairement lié à un système d'apprentissage ...? Mais ce n'est plus le même débat. Par contre l'idée de simuler des sentiments, qui relèvent du domaine hormonal, n'a certainement aucun rapport avec la première définition. AS

Auteurs de SF traitant de l'IA[modifier le code]

Concernant certains auteurs de SF ayant approché, de manière conceptuelle L'IA (Comment une machine devient consciente...),il serait bon de citer Greg Bear dans "La Reine des Anges" (Queen's Angel) parut en 1990 suivit de "Oblique" (Slant) en 1997.

Massacre des liens sur l'IA forte[modifier le code]

Tous les liens facuels et toutes les considérations précises sur l'IA forte ont à ce que je vois été sabrées de l'article (en particulier le lien sur le remarquable article du professeur Irving John Good) pour être remplacés par des propos de café du commerce, un peu comme si après que l'article ait été élaboré par des ingénieurs des philosophes étaient passés pour réduire l'article à ce qu'ils voulaient en voir, et que pas un cheveu ne dépasse.

Cette attitude est particulièrement contre-productive. Que cherche-t-on à faire ? Ramener la Wik à un livre pour enfants ? 81.65.26.7 10 décembre 2006 à 15:44 (CET)

Bonjour. Je vois toujours le lien vers le professeur Irving John Good.
Cet article est la cible de nombreux spam de liens et il n'est pas toujours facile pour les patrouilleurs qui ne connaissent pas le sujet de savoir lesquels conserver ou non.
En général, je conseille de mettre les références dans l'article, entre les balises <ref>Référence / lien</ref>, qui ajoute un 1 ou 2 avec une note de bas de page.
Par ailleurs, si vous tenez à une ancienne version qui vous semble beaucoup plus pertinente, je vous encourage vivement à parcourir l'historique et à rétablir une meilleure version (ou récupérer un paragraphe, afin de ne pas écraser d'autres mises à jour pertinentes).
Je ne suis pas certain de pouvoir vous aider, mes compétences étant limitées dans le domaine, mais si je peux vous aider, n'hésitez pas à me demander.
Cordialement, Plyd /!\ 10 décembre 2006 à 16:09 (CET)

Suppression d'une information importante[modifier le code]

Il était naguère précisé dans l'article une chose importante : la définition même de l'intelligence artificielle par je ne sais plus quel professeur (réalisation par la machine de taches jusqu'alors mieux accomplies par l'intelligence humaine - IA faible) fait que dès lors qu'un objectif d'IA faible est atteint, il cesse de faire partie de l'IA faible pour devenir une simple application informatique.

Cela allait dans le même sens qu'une déclaration moins spectaculaire de Philippe Kahn déclarant : "Aujourd'hui, on programme en C ou en Pascal; demain, on programmera en Prolog et plus plersonne n'aura l'idée de nommer cels de l'intelligence artificielle : ce seront simplement des applications combinatoires programmées avec un langage combinatoire". Il est vraiment dommage d'avoir exclu cette information éclairante de l'article, car elle devient évidente une fois énoncée et contribuait à démythifier utilement l'IA. 81.65.26.17 1 mars 2007 à 12:08 (CET)

Utiliser le terme agent ?[modifier le code]

Je n'y connaît pas grand chose, et je n'est pas prît le courage de tous comprendre sur cette page, mais il me semble que les logiciels utilisés pour "l'intelligence artificielle " s'appellent des agents. Prière de me laisser un petit mot sur ma page si ce n'est pas le cas, et même si c'est le cas, pour me faire comprendre. (Pour ceux et celles qui ont compris!!!) Merci. Paul99 8 juillet 2007 à 18:31 (CEST)

Les logiciels utilisés en IA ne sont pas nécessairement des agents. Un agent est une entité logocielle autonome, pro-active et fortement communiquante. L'approche par systèmes multi-agents n'est qu'une approche parmi d'autres, même si elle est particulièrement féconde et mériterait d'être davantage détaillée dans cet article.
Il me semble que vous faites la confusion entre « logiciel » et « processus ». Ce sont les processus qui sont des agents ou qui agissent comme tels. Pierre de Lyon (d) 29 février 2008 à 14:50 (CET)

Améliorer l'article[modifier le code]

Il me semble nécessaire d'améliorer cet article en mettant l'accent sur les recherches récentes (nouvelle IA, algorithmes génétiques, systèmes multi-agents massifs) et découvertes des sciences cognitives et des neurosciences (Damasio). Le débat sur la faisabilité de l'IA est présenté de manière simpliste, avec des arguments dépassés ou dépourvus de sens (ex. la Chambre chinoise).

oui, donc Wikipédia:N'hésitez pas ! Sylenius 7 septembre 2007 à 20:58 (CEST)
Il me semble que "dépassé" et "dépourvu de sens" est également une manière simpliste de traiter ces arguments. --Jean-Christophe BENOIST 7 septembre 2007 à 21:15 (CEST)

Intelligence Artificielle ?[modifier le code]

Au stade où la machine parvient d'elle même à comprendre qu'elle est une machine, pourquoi parler d'"intelligence artificielle" alors qu'il s'agit simplement d'intelligence, n'est ce pas même peut être une forme de racisme ? de plus on parle de support biologique et mécanique. L'être hummain n'est-il pas juste une machine hautement sophistiquée ? car biologique ou mécanique la pièce de base est la même : l'atome

Il ne s'agit pas simplement d'opposer l'intelligence humaine (naturelle) et l'intelligence artificielle : en réalité il y a un problème philosophique : dire que l'être humain est "une machine", comme tu le dis, c'est adopter le point de vue philosophique du [mécanisme]. Or si certains philosophes acceptent le mécanisme, d'autres le refusent... — Le message qui précède, non signé, a été déposé par Serge boisse (discuter), le 13 janvier 2009 à 16:08

Proposition de sélection de cet article pour Portail:Informatique[modifier le code]

Cet article est proposé pour faire partie de la sélection Wikipédia:Sélection/Informatique. Cette page permet d'afficher aléatoirement un article parmis la sélection sur Portail:Informatique. Les articles sélectionnés représentent la vitrine du projet.

Vous êtes invités à vous exprimer sur la page suivante : Wikipédia:Sélection/Informatique/Intelligence artificielle. Toutes les remarques d'amélioration sont les bienvenues, mais notez que puisque c'est un vote interne au projet, seuls les votes des participants déjà inscrits sur le projet informatique seront pris en compte. --T (d) 11 décembre 2007 à 13:27 (CET)

Contribuez à l'article en reconstruction[modifier le code]

Je vous propose de ne plus modifier l'article principal mais la version dite version_collective. Pierre de Lyon (d) 11 mars 2008 à 15:55 (CET)

ça gène quelqu'un si je mets l'ensemble des discussions avec jeanPhi sur cete page dans une boite déroulante ? et que je propose Discuter:Intelligence artificielle/Brouillon en SI ? Sylenius (d) 11 mars 2008 à 22:32 (CET)

Ok pour la boîte déroulante, quant à la SI je préfèrerai que cette version reste archivée et accessible, on sait jamais... peut-être qu'il y a des trucs intéressants à récupérer Émoticône sourire. Petit Djul (d) 11 mars 2008 à 22:37 (CET)
Il faut garder le brouillon, pour référence par rapport à la discussion. --Jean-Christophe BENOIST (d) 11 mars 2008 à 23:36 (CET)
OK Pierre de Lyon (d) 12 mars 2008 à 10:30 (CET)

Deep Blue[modifier le code]

Bonjour,

La photo de Deep Blue est-elle réellement pertinente ? Je ne vois pas du tout de lien entre l'IA et la façon dont fonctionnent les programmes d'échecs actuels (et Deep Blue en particulier) qui doivent tout à des algorithmes simples pour évaluer la position et à la force brute d'un générateur de coups. Sur la FAQ du match Kasparov-Deep Blue, on précise même explicitement qu'il n'y a pas de lien entre Deep Blue et l'IA :

Does Deep Blue use artificial intelligence?

The short answer is "no." Earlier computer designs that tried to mimic human thinking weren't very good at it. No formula exists for intuition. So Deep Blue's designers have gone "back to the future." Deep Blue relies more on computational power and a simpler search and evaluation function.

The long answer is "no." "Artificial Intelligence" is more successful in science fiction than it is here on earth, and you don't have to be Isaac Asimov to know why it's hard to design a machine to mimic a process we don't understand very well to begin with. How we think is a question without an answer. Deep Blue could never be a HAL-2000 if it tried. Nor would it occur to Deep Blue to "try."

Cette association entre les logiciels qui jouent aux échecs et l'IA ne peut que perpétuer une conception de l'IA qui n'est pas judicieuse. — mro [d] 2 avril 2008 à 12:39 (CEST)

J'aurais tendance à être tout à fait d'accord avec toi, mais ce n'est que mon avis. Si je regarde maintenant mes sources (notamment le (en) Russell, S. et Norvig, P., Artificial Intelligence: A Modern Approach (2nd ed.), Prentice Hall, , 932 p. (ISBN 0-13-790395-2)), les processus visant à reproduire un comportement humain dans un domaine spécialisé (ce qui est le cas des échecs) est généralement considéré comme de l'IA. Et beaucoup de recherches en IA (voire la quasi-totalité) concernent un domaine spécialisé.
Mais quoi qu'il en soit, je suis d'accord que ce n'est pas la meilleure illustration possible (mais comment illustrer autrement ?), même si - de fait - elle n'est pas totalement hors-sujet. --Jean-Christophe BENOIST (d) 3 avril 2008 à 14:06 (CEST)

Bonjour, il y a aussi le robot asimov de honda. je ne pense pas que la marche d'un robot humanoide soit un sujet d'intelligence artificielle, d'ailleur il n'est pas cité dans l'article. pourtant sa photo est en tête de la page. (j'espere que vous me pardonnerez de modifier une page de discussion sans avoir lu les conseils pour y garder une mise en page propre)

Ne pas partir bille en tête sur les détails au risque de noyer le lecteur[modifier le code]

L'article dans son état actuel (22 mai 2008) commence à détailler ce qu'est l'IA forte avant même d'avoir situé la différence qui existe entre IA faible et IA forte. Cela ne peut que déconcerter le lecteur non spécialiste. Un plan plus clair pourrait être :

  • IA faible et IA forte (présentation générale des deux approches)
    • IA faible (détails plus poussés)
    • IA forte (détails plus poussés)

Commencer par l'IA faible est plus honnête, parce que c'est la seule que nous sachions vraiment faire. C'est plus pédagogique aussi, car des exemples pris dans le quotidien permettent d'accrocher l'attention du lecteur.

Je devrais le faire moi-même, mais m'abstiens pour deux raisons :

  1. L'article possède un bandeau de remaniement en cours
  2. Cette approche était me semble-t-il celle utilisée dans une de ses versions antérieures. L'article "progresserait" donc apparemment dans le mauvais sens (où sont passés d'ailleurs les exemples relatifs à GPS - General Problem Solver, MYCIN/EMYCIN, etc. ? Je ne fais que passer en coup de vent et ai peut-être mal cherché, mais il serait logique de les voir au moins dans le sommaire :-( ).

212.198.156.176 (d) 23 mai 2008 à 16:01 (CEST)

Jeux vidéo[modifier le code]

J'aurais aimé avoir un avis sur la présence de la section « jeu vidéo » dans cet article, car ce n'est qu'une une application parmi bien d'autre. Aussi le contenu n'est amha pas très bon, il commence par un cas réducteur et pas spécialement particulier au jeu vidéo, et fini par des spéculations. Il me semble que si une section doit exister, il vaudrait mieux présenter la problématique de l'IA dans le domaine du jeu vidéo. bayo 1 juillet 2008 à 12:54 (CEST)

D'accord à 100%. Si tu "te sens" pour faire les modifications qui vont bien, vas-y ! --Jean-Christophe BENOIST (d) 1 juillet 2008 à 13:22 (CEST)
J'ai relu le paragraphe. Il y a des parties que je comprends pas parce que ça jargonne et il y a des parties qui me paraissent enfoncer des portes ouvertes, en particulier parce qu'elles ne sont pas spécifiques à l'IA. Je pense que l'on peut soit supprimer, soit considérablement améliorer ce paragraphe. Pierre de Lyon (d) 2 juillet 2008 à 16:47 (CEST)
Ces dernières semaines j'ai lu quelques papiers parlant de l'IA dans les jeux vidéo, et je viens de bachoter un peu. mais je suis très géné de modifier cet article/cette section, car je n'y suis pas du tout à l'aise. J'ai mis à jour la section, en trois parties 1) une espèce de définition avec un état des lieux 2) un historique 3) l'intérêt que peut représenter les jeux pour les spécialistes IA. Aussi, s'il est préférable de supprimer la section, je n'y vois pas de problème. bayo 2 juillet 2008 à 18:17 (CEST)

Et les AGI ? (Artificial General Intelligence)[modifier le code]

Sur la page anglaise http://en.wikipedia.org/wiki/Strong_AI il y a un paragraphe qui traite des AGI (Artificial General Intelligence). Et rien dans la page française. Les AGI se révéleront peut entre une impasse mais comme il y a des produits commerciaux qui doivent sortir cette année (voir par ex : http://adaptiveai.com/news/index.htm ), je pense qu'il faudrait le mentionner quand même. De plus si cette approche est la bonne, le problème de l'IA sera résolu.

Je trouve le revert de Sylenius un peu "brutal", surtout alors que l'auteur avait commencé à discuter ici, sans que Sylenius donne son avis. Je n'ai pour ma part pas eu le temps "d'enquêter" à propos de l'AGI, mais a priori ce n'est pas tout a fait un WP:TI. Avant tout il faudrait sourcer ton passage JB7756, c'est absolument indispensable, et montrer que cette approche commence à être reconnue dans des livres ou publications concernant le domaine. --Jean-Christophe BENOIST (d) 10 juillet 2008 à 13:17 (CEST)
Désolé, j'avais pas vu la discussion. Mais bon, pas vraiment d'hésitation non plus: c'est prospectif, c'est pas sourcé, ça sonne fortement comme du TI : c'est réverté. IL y a bien d'autres choses à mettre dans cet article avant de parler des travaux de recherche actuels, on en est pas là... Sylenius (d) 10 juillet 2008 à 13:23 (CEST)
Les AGI commencent à devenir « mainstream » aux Etats Unis. Leur promoteur comme Peter Voss ou Ben Goertzel s’affichent désormais avec des personnalités comme Ray Kurzweil (qui ne les évoquait pas dans son dernier ouvrage datant de 2004 - voir ici http://www.singinst.org/summit2007/ ). Il existe plusieurs ouvrages, certes tous en anglais (voir ici : http://adaptiveai.com/research/index.htm - en bas de pages). Mais il est certain que ces recherches restent encore plus ou moins secrètes pour des raisons commerciales évidentes. Je suis d’accord que Wikipédia ne doit pas servir de tribune à des recherches très récentes ou à des chercheurs excentriques (bien que parfois ils finissent pas avoir raison). Mais il ne faut pas non plus que Wikipédia soit trop académique (gardien du dogme ou de l’avis général), sinon quel intérêt par rapport à une encyclopédie classique ? Surtout dans un domaine qui bouge aussi rapidement. L’AGI cela fait 7 ans au moins que les premières start-up ont commencées à y travailler. Elles reçoivent depuis le soutient de financiers qui doit maintenant atteindre au moins plusieurs dizaines de millions de dollars. Et on peut dire qu’elles arrivent maintenant à maturité avec l’annonce de produits commerciaux (celui d’Adaptive AI semble vraiment très ambitieux). Enfin dans le Wikipedia anglophone les AGI sont évoqués. Ont’ils des critères différents ? Ou est ce la culture ?
Je serais assez contre un paragraphe sur les AGI sur cette page dans son état actuel. Je pense que l'article intelligence articifielle doit rester assez général et présenter avant tout les méthodes bien connues. Bien sûr on peut évoquer les recherches actuelles, mais seulement les évoquer. Si vous êtes motivés par les AGI, pourquoi ne pas rédiger une page dédiée aux AGI ? le sujet a l'air effectivement suffisament reconnu pour être admissible. Attention cependant à la rédaction et aux affirmations prospectives (du genre: cette approche pourrait révolutionner l'ia, les AGI sont en passe de devenir mainstream, etc...). Sinon, on ne copie pas forcément toujours les anglophones, surtout lorsque nos articles sont dans des états aussi différents. Cordialement, Sylenius (d) 10 juillet 2008 à 16:17 (CEST)

Relations homme-machine[modifier le code]

Je pense que l'intelligence artificielle, par ses méthodes et l'observation de ses résultats, est une manière d'entamer l'étude des relations homme-machine, les informaticiens ne s'y intéressant que partiellement : la sociabilité que les humains peuvent avoir avec les robots et les machines en général, mais aussi les climats d'espoir, d'irrationalité, les angoisses peuvent être traités très admirablement par des personnes ayant travaillé en IA. --GéGé twin (d) 1 novembre 2008 à 20:35 (CET)

Precision...[modifier le code]

Suppression du (encore?) dans le passage espoirs et mefiances, nous ne sommes plus au xxieme siecle depuis un bail...

Définition obsolète[modifier le code]

L'intelligence artificielle est la « recherche de moyens susceptibles de doter les systèmes informatiques de capacités intellectuelles comparables à celles des êtres humains »

référence: La Recherche, janv. 1979, no 96, vol. 10, p. 61, cité par le dictionnaire du CNTRL.

Me semble obsolète et sa référence date d'ailleurs de 30 ans (1979). En particulier:

  1. une intelligence artificielle peut créer des intelligences non humaine (et je ne parle pas d'extraterestre). Exemple: les travaux sur l'IA distribuée et la vie artificielle (voir l'intelligence collective artificielle), la robotique (y compris les véhicules autonomes, les drones, etc.), et la création d'intelligence par émergence, les 'bots' intelligents sur Internet (dont les bots sur les mondes virtuels). On peut aussi penser au domaine des jeux vidéo qui peuvent inclure des intelligences non-humaines (animaux artificiels par exemple).
  2. capacités intellectuelles comparables n'est plus vraiment l'objectif en tout cas pas tout le temps. Un autre objectif est par exemple d'augmenter les capacité cognitive des humains et ne pas remplacer ceux-ci
  3. ... (merci de compléter)

Bien entendu vous pouvez être en désaccord. (pouvez-vous dans ce cas commenter?) --Nabeth (d) 29 août 2009 à 12:06 (CEST)

Tout à fait d'accord. Une définition plus simple et générale pourrait être: L'intelligence artificielle est la recherche de moyens susceptibles de doter les systèmes informatiques d'un comportement intelligent. Sylenius (d) 29 août 2009 à 12:33 (CEST)
Je suis responsable de cette définition qui provenait du dictionnaire du CNTRL.
Question: pourquoi une définition de 30 ans ne serait plus valable aujourd'hui? On pourrait alors signaler cette évolution sémantique. --Pierre de Lyon (d) 2 septembre 2009 à 22:06 (CEST)
Une définition vieille de 30 ans n'est pas nécessairement obsolète, même en informatique, mais je suis d'accord que cette définition n'est plus adéquate de nos jours. J'ai fait mon mémoire de fin d'études, il y a plus de 20 ans, sur la reconnaissance des formes, qui est une branche de l'IA, et je voulais faire carrière dans ce domaine (ce qui n'a finalement pas été le cas !). Je me souviens clairement qu'à cette époque, l'objectif était bien de simuler l'intelligence humaine (mais on était déjà sur la fin de la validité de cette définition). Depuis, de l'eau a coulé sous les ponts et la voilure a été réduite. De fait, les recherches contemporaines portent plutôt sur les comportements "intelligents" (dans le sens : décision adéquate en face de stimulus ou d'un environnement aléatoire, poursuite d'un objectif etc..) que sur l'intelligence humaine. Je ne crois même pas qu'un seul groupe de recherche dans le monde a encore cette objectif (mais je ne demande pas mieux que d'être démenti Émoticône sourire). Cela dit, tout ce que je viens de dire est un TI à base des sources primaires que sont mes souvenirs et mes connaissances : il faudrait trouver une définition - sourcée - qui a des chances de ressembler à celle que propose Sylénius, que je trouve un peu trop récursive cependant. --Jean-Christophe BENOIST (d) 2 septembre 2009 à 22:33 (CEST)
Effectivement, la sémantique de l'intelligence a pas mal évoluée, en parti à la suite des différents Hivers de l'IA. En particulier il y a 30 ans, il y avait cette idée d'une IA bien centralisée, et ayant pour but de remplacer l'Homme. Les choses ont bien évolué depuis (plus l'idée augmenter les capacités de l'Homme, plus de distibution avec l'IA distribuée et l'idée d'emergence) et devrait encore évoluer du fait de l'arrivée de l'intelligence ambiant et du web des objets. Cette évolution me semble normal pour tout domaine qui est utilisé (le savoir est quelquechose de vivant). Cela étant, celà ne m'interesse pas de passer du temps à trop débattre ce point, puisqu'il y a des choses plus utile à faire (tel que développer les différents domaines d'utilisation). Note: je ne ferais donc personellement aucun changement sur cette définition. Amicallement.--Nabeth (d) 2 septembre 2009 à 22:55 (CEST)
Petite addition. Je travaille de manière professionel sur ce sujet depuis à peu près 20 ans, mais bien sûre chacun peu avoir toutefois une expérience différente. Je voulais juste indiquer que c'est un domaine que je connais relativement bien. Concernant lae fait de fournir une perspective Historique, je suis tout à fait d'accord sur sa pertinance et son utilité. Le lecteur doit percevoir l'évolution des concepts (c'est malheureusement quelquechose qui disparait, et les gens ont l'impression alors d'avoir de la connaissance figée). Pour finir sur ce sujet, la version anglaise fournit une perspective historique tout à fait interessante (en:History_of_artificial_intelligence) et en particulier la section: AI 1993−present --Nabeth (d) 2 septembre 2009 à 22:58 (CEST)

Petite restructuration[modifier le code]

J'ai restructuré un peu le document et en particulier j'ai séparé de manière beacoup plus nette:

  • Les différentes facettes de l'intelligence artificielle
  • La conception des systèmes d'IA
  • Les domaines d'application

Note: Du travail reste toutefois à faire, en particulier au niveau de la section Domaine d'application ou plusieurs sous section pourraient être créées (banque, militaire, transport, etc.)

Bien entendu, cette restructuration n'est pas supposée être parfaite, et vous être encouragés à la faire évoluer.

Sujets qqui pourraient être changés (mais que je ne ferais pas car je pense qu'ile peut y avoir des désacords):

  • La distinction IA forte / IA faible. Je ne pense pas que cette structuration (dont je reconnais qu'elle n'est pas absurde) soit la plus adéquate.

--Nabeth (d) 31 août 2009 à 18:03 (CEST)

Article a revoir , un peu dogmatique[modifier le code]

Information à revoir :

On va encore me dire que cela n'a rien avoir avec les ia ... Êtes vous sur que des processeurs quantiques n'ont pas de rapport ?

Ou que le projet de wolfram alpha ( que j'ai également rajouté et que l'on a retiré, qui est en rapport avec deux autres projets parallèles de création d'une ia d'une manière plus informatique) n'ait pas de rapport avec le sujet ?

Au fait : Il y a un certain nombre d'article à traduire sur l'intelligence artificielle : ça permettrait d'éviter de sortir des erreurs que je juge pour des aprioris dogmatique.

Est ce que la France est en retard en ia ? Oui enfin, dans sa communication de ce qu'est l'ia peut être même dans les couches intellectuelles.

--Kalki101 (d) 22 janvier 2010 à 00:18 (CET)

Personne n'est sûr ici ; ou plutôt : tout le monde est sûr qu'il est nécessaire d'avoir des sources pour affirmer ceci ou cela dans l'article. Si tu trouves des sources fiables pour dire que les processeurs quantiques ont un rapport avec l'IA, ou Wolfram, alors il est possible d'en dire un mot dans l'article. Jean-Christophe BENOIST (d) 22 janvier 2010 à 12:11 (CET)

IA dans la fiction[modifier le code]

Il semble évident que l'on ne peut énumérer dans cette section toutes les IA qui existent dans les romans ou films de SF. Le dernier ajout semble à ce titre peu pertinent. Est-ce que Utilisateur:85.3.144.122 peut donner une raison, et idéalement une source, qui justifie d'ajouter cette IA plutôt que la centaine d'autre IA du même ordre qui existe ? Si on "laisse passer" ce genre de modif, c'est la porte ouverte à une liste longue comme le bras et peu pertinente. --Jean-Christophe BENOIST (d) 16 janvier 2011 à 17:02 (CET)

Oui, la section peut être largement allégée. Par ailleurs, la section ne mentionne que le cinéma, alors que celui-ci semble très en retard, minimal, et globalement peu pertinent, par rapport à la littérature. Askywhale (discuter) 23 février 2015 à 11:33 (CET)
Tout-à-fait d'accord. La meilleure façon d'alléger ne serait-elle pas la suppression pure et simple de la section? --Pierre de Lyon (discuter) 26 février 2015 à 13:21 (CET)

Citation initiale[modifier le code]

La citation initiale (definition par Minsky) sort de nulle part. Elle est introuvable ailleurs que dans les copies diverses de Wikipedia, y compris sa traduction en bas de page, même en cherchant des fragments de cette définition. Difficile de croire qu'une définition authentique de l'IA par Minsky soit introuvable. De plus, la seule référence fournie est un article (très mauvais) du wikipedia Larousse, qui lui-même ne cite pas ses sources.

La définition qui s'en rapproche le plus est celle de Rich et Knight 1991.

Si cette citation est effectivement authentique, il faudrait citer la source précise.

Etude de faisabilité dans l'IA forte[modifier le code]

Il faudrait supprimer cette section. Les comparaison de puissance de calculs tiennent de la discussion de café du commerce (ne repose sur aucune base scientifique sérieuse, n'apportent finalement rien au problème), le paragraphe final est assez creux (réseaux neurone = voie prometteuse, ça fait un peu daté comme commentaire).

Dangerosité éthique[modifier le code]

Je pense qu'il serait intéressant de rédiger un paragraphe sur la dangerosité potentielle et/ou l'éthique à propos de la création d'une intelligence artificielle. Je ne suis pas expert mais j'imagine que de nombreux scénario ont été envisagés. Quid du droit à la création d'un système ayant "conscience de soi" et dont les capacités seraient potentiellement infinies (d'où dangerosité?)?— Le message qui précède, non signé, a été déposé par MrFerraille (discuter)

Pourquoi pas, mais orienter un paragraphe spécifiquement sur la "dangerosité" est dangereusement non neutre Émoticône sourire. Il faudrait plutôt un paragraphe "IA et Éthique", fondé sur des sources de qualité qui traitent de cette problèmatique. En connaissez-vous ? Cordialement --Jean-Christophe BENOIST (d) 20 septembre 2011 à 16:38 (CEST)

Taxinomie utile[modifier le code]

J'ai mentionné à tout hasard celle utilisée par http://www.ibiblio.org/pub/Linux/docs/HOWTO/other-formats/pdf/AI-Alife-HOWTO.pdf qui vaut ce qu'elle vaut, mais a au moins le mérite d'exister. Cela pourra aussi sans doute aiguiller sur des liens utiles ceux qui cherchent à approfondir chez eux telle ou telle facette de l'IA 82.226.27.88 (d) 3 avril 2013 à 05:35 (CEST)

L'internaute.com[modifier le code]

Est-ce qu'une référence à linternaute.com peut être considérée comme pertinente sur un débat aussi important et difficile que l'essor de l'intelligence artificielle, notamment l'acquisition d'une conscience et la sensation d'émotion? Personnellement je ne le pense pas et je voudrais supprimer cette référence. --Pierre de Lyon (discuter) 16 septembre 2014 à 09:44 (CEST)

Histoire de savoir de quoi on parle, voilà la référence en question j'imagine : interview de chauvet et jacquemin. j'ai pas encore d'avis, si ce n'est que présenté comme tu le fais ça donne envie de défendre la ref, c'est un peu du "délit de sale gueule :) Notification PIerre.Lescanne : Suite quand j'aurai lu la ref et ce qu'elle source. — TomT0m [bla] 16 septembre 2014 à 13:01 (CEST)
Grâce au smiley, je comprends que tu es ironique et donc je ne me vexe pas. Je m'explique: quand nous parlons «  d'acquisition d'une conscience et de sensation d'émotion » nous sommes en train de parler de questions philosophiques, scientifiques et épistémologiques. Pour cela il nous faut citer des revues sérieuses du domaine et des travaux reconnus. Ne connaissant pas linternaute.com, j'ai regardé sur wikipédia (sans surprise). Dans un premier temps je n'ai rien trouvé, mais je pense que j'avais mis un mauvais critère de recherche. L'article sur linternaute.com ne décrit pas ce site comme un site de référence sur la pensée et de fait les articles de Wikipédia qui s'y lient ne sont pas particulièrement philosophiques, scientifiques et/ou épistémologiques; on est plutôt dans le people. --Pierre de Lyon (discuter) 16 septembre 2014 à 15:03 (CEST)
OK, lecture faite: je crois que bien plus que la référence qui n'est pas si mauvaise, il faut surtout tout refaire dans le paragraphe "essort", mélanger les aspects financiers, les enjeux scientifiques et techniques et les aspects philosophiques en terminant par des livres de sciences fictions, c'est un joli bazard, surtout en regard du titre du paragraphe. Si vraiment tu en as juste après la référence, tu peux mettre à la place le livre d'un des interviewé consacré au sujet. — TomT0m [bla] 1/875410*/876 septembre 2014 à 13:42 (CEST)
Oui le paragraphe « essor » doit être refait. Je ne connais ni Chauvet, ni Jacquemin et n'ai pas lu le livre, je ne peux pas dire s'il s'agit d'un ouvrage reconnu. D'autre part, je souhaiterais vis-à-vis de l'article « intelligence artificielle » rester un relecteur critique et attentif (il en faut) plutôt qu'un auteur. --Pierre de Lyon (discuter) 16 septembre 2014 à 15:03 (CEST)
Alors pourquoi pas une revue de l'article, comme le plan ? Je suis pas sur de bien comprendre à quoi la section "question soulevée" correspond. Autant faire ça avant de critiquer des références, si les sections ne survivent pas à une analyse, c'est pas trop la peine de se poser la question de cette référence. premature optimization is the root of all evil comme dirait Donald :) — TomT0m [bla] 16 septembre 2014 à 17:28 (CEST)
Je n'arrive pas à avoir accès au "chat" lui-même. De toutes manières, une interview, ou encore pire un "chat", n'est pas une source secondaire, mais primaire, étant donné que l'auteur présente lui-même ses travaux, avec les biais que cela comporte, et l'absence de mise en perspective générale. Pour éviter de tout mélanger et de synthétiser au hasard des sources plus ou moins pertinentes et plus ou moins secondaires, il faudrait fonder cet article sur une ou plusieurs sources de haut niveau, centrée sur le sujet, et s'inspirer de leur synthèse, en limitant au maximum la synthèse inédite. --Jean-Christophe BENOIST (discuter) 16 septembre 2014 à 17:43 (CEST)
le chat est là à côté du lien sur le dossier IA de l'Internaute Oula ça se complique :) un lien sur lequel l'auteur présente un bouquin qui est sans doute une synthèse, étant un bouquin d'un neuroscientifique et donc très certainement une source s'appuyant sur des travaux scientifique externes, c'est peut être une source primaire sur le bouquin j'en sais rien, mais sur le sujet du bouquin c'est sans doute pas une source primaire. À part ça je suis pas particulièrement fan de l'internaute, mais j'avoue que j'en ai un peu assez de ce bashing de sources parce sans doute de vulgarisation, c'est pas parce que c'est pas un article détaillé avec du contenu de niveau d'un article scientifique que ça n'a pas d'intérêt, notamment ce a quoi c'est destiné: un aperçu du sujet à l'intention de non spécialistes, par des experts. Il ne faut pas perdre de vue que la majorité des lecteurs de cet article ne sont pas par définition des experts. — TomT0m [bla] 16 septembre 2014 à 18:24 (CEST)
Je suis plutôt d'accord avec toi. Le problème n'est pas du tout si la source est vulgarisée ou non, mais comment on utilise les sources pour cet article. Une interview est toujours délicate à utiliser, car cela ne présente les choses que d'un seul PdV, or l'IA est un des domaine où il y a le plus de PdV ! De plus, impossible de savoir si le PdV est pertinent/reconnu, car ce n'est pas qqun qui parle des travaux et idées de qqun d'autre ou de plusieurs autres (source secondaire), mais qqun qui parle de ses travaux et idées. Comment choisir les PdV plus pertinents et moins pertinent ? L'article doit-il être une compilation indifférenciée et synthèse inédite de N PdV (=bazar comme tu dis), ou une présentation raisonnée, hiérarchisée et mise en perspective des PdV ?
Pour obtenir ce dernier résultat, la dernière chose à faire est de partir d'une interview, et la première à faire est de partir d'un bon bouquin généraliste sur l'IA (et vulgarisé, pourquoi pas). Mais bon, l'article évolue, et dans des états intermédiaires, pourquoi pas utiliser ce type de source, là il n'y a pas péril en la demeure, même si tout cela crie le besoin de partir sur de bonne sources de synthèse. --Jean-Christophe BENOIST (discuter) 17 septembre 2014 à 00:19 (CEST)
Je suis d'accord l'IA est un domaine où il y a beaucoup de points de vue et il faut partir de bons bouquins et il y en a, plutôt que d'un interview dans un média dont ça n'est pas la spécialité. Bien sûr que les lecteurs de Wikipédia ne sont pas des experts, sinon ils utiliseraient des sources pour experts (qui seraient très probablement en anglais). Si je m'investis dans Wikipédia, c'est pour donner aux non experts des informations de qualité. --Pierre de Lyon (discuter) 17 septembre 2014 à 19:13 (CEST)

Nombre de neurones dans le cerveau humain totalement erroné[modifier le code]

Dans l'article wikipedia "Cerveau humain", au paragraphe "Structure", il est écrit : "Le cerveau humain est constitué de 170 milliards de cellules dont 90 milliards de neurones, ...". Ces nombres sont corrects. Pour arrondir, le nombre de neurones est d'environ 100 milliards, c'est à dire 10 puissance 11.

Or, dans l'article "Intelligence artificielle", au paragraphe "IA forte", sous paragraphe "Estimation de faisabilité", il est écrit : "Le cerveau humain, formé de 2 × 10 puissance 12 neurones ..." Ce nombre est totalement erroné : il est 20 fois supérieur au nombre scientifiquement établi.

Il est par conséquent important de corriger cette erreur, qui fragilise la crédibilité de l'ensemble de l'article.

Le beurre , La crème, la fermière et la baratte[modifier le code]

A la lecture des cette article je suis vraiment déçu. On y parle de tout et de son contraire : les travaux de Turing voisine avec l"IA" des jeux vidéos, les anticipations de la science fiction avec la réalité des derniers développements de techniques informatiques et des considérations philosophiques et épistémologiques avec une présentation de système expert ! Mais de quoi parle t'on au final sous le vocable Intelligence Artificiel ? Il est plus que temps de dissocier :

  • L'IA " faible " comme science technique au confluant des mathématiques et de l’informatique
  • L'IA "forte" comme réflexion philosophique et épistémologique , interrogation sur l'intelligence et son ontologie.
  • l'IA dans ses aspects littéraire, artistique et filmographie ( œuvre de fiction, roman film, représentation sociologique)
  • 'IA des jeux vidéo devrait retourner du coté des jeux vidéo (elle désigne simplement un composant du jeu).

Bref à vouloir regrouper sous le même vocable, des champs sémantiques bien différent, on confond tout. Donc, à ma sens, il faut trois articles distincts. Ce n'est pas forcément compliqué à faire :

  • IA (Philosophie) = {test de Turing + Intelligence artificielle forte + Courant de pensée + Pensée automatique} => portail philosophique.
  • IA (Science) ={ machine de Turing + Intelligence artificielle faible + Différentes facettes + Développement algorithmique ( à construire) + Conception de systèmes + IA et jeux de stratégie } => portail informatique
  • IA (science-fiction) = { aspects sociologique qui se dessine a travers film , roman , récit d'anticipation}.
  • IA (jeu vidéo) => § dans jeux vidéo.

Parce qu’aujourd’hui, tel que l'article est construit,la baratte est pleine. Il est impossible de contribuer efficacement.--Yond29 (discuter) 4 octobre 2016 à 17:21 (CEST)

C'est pas faux. Mais on a exactement les mêmes problèmes pour Vérité, Temps et autres gros sujets. Le traitement habituel de ce genre de sujets est de faire un article généraliste faisant le panorama, et des articles détaillés. Mais commencer par des articles détaillés (avec une page d'homonymie pour le sujet principal ?~ou quoi ? tu ne le dis pas), n'est peut-être pas le meilleur. --Jean-Christophe BENOIST (discuter) 4 octobre 2016 à 17:39 (CEST)
Cet article est mal fichu, on le sait, mais cela demande pas mal de réflexion et de travail pour ré-organiser tout cela. Sylenius (discuter) 4 octobre 2016 à 19:54 (CEST)
A y regarder de plus prés je trouve des aspects positifs à cet article. La problématique sur l'IA forte est bien mise en place avec ses développements récents et ses questionnements . De plus , il y a une bonne transition logique avec l'IA faible . Dans cette configuration d'article : Histoire de l'intelligence artificielle , Test de Turing, Philosophie de l'intelligence artificielle, le gros manque viens de l'absence de l'article IA(Informatique théorique). Le portail Informatique théorique contient un thème nommé "intelligence artificielle. Cet article reprendrait les notions décrites ici sous le § "IA faible" et les articulerait avec les items existant dans le portail aujourd'hui. De même on peut créer deux articles IA(Science fiction) et IA(Jeux vidéo) détaillant respectivement ces deux aspects. Une fois cela créé, on pourra dégraisser cet article pour le focaliser sur une présentation synthètique de l'IA. Dernier point : supprimer le § Actualités (titre un peu ridicule dans une encyclopédie) pour en faire quelques choses du genre : liste des projets récents en IA.--Yond29 (discuter) 7 octobre 2016 à 12:33 (CEST)

Pensée automatique[modifier le code]

Je ne pense pas que c'est dans l'article Intelligence artificielle que l'on doit trouver l'histoire de la logique formelle, par exemple des considérations historiques sur Leibniz, Boole, Gödel, Frege. --Pierre de Lyon (discuter) 10 juillet 2018 à 18:43 (CEST)

Critiques et inquiétudes : François Jortay[modifier le code]

J'ai un doute que François Jortay soit un auteur de référence sur le sujet de l'intelligence artificiel.

J'ai cliqué sur le lien de la référence et je suis tombé sur un site qui parle avant tout de la démocratie directe et qui ne propose pas grand chose d'autre sur l'intelligence artificielle que ce qui figure dans "Critiques et inquiétudes" ici sur wikipedia.

Cet auteur est apparu dans la version de l'article du 17 juillet 2016: https://fr.wikipedia.org/w/index.php?title=Intelligence_artificielle&oldid=127912102

— Le message qui précède, non signé, a été déposé par l'IP 62.235.224.37 (discuter), le 17 décembre 2016 à 15:55 (CET)

Le site democratiedirecte.net contient un article d'une trentaine de page, intitulé : « Intelligence collective vs artificielle »

.

Appartenant au groupe des sciences informatiques[modifier le code]

J'ai envie de modifier la première phrase « L'intelligence artificielle est une discipline scientifique appartenant au groupe des sciences cognitives » comme ceci: « L'intelligence artificielle est une discipline scientifique appartenant au groupe des sciences cognitives et au groupe des sciences informatiques ». Mes arguments sont les suivants:

  1. L'article appartient au portail informatique.
  2. Dans la communauté scientifique et académique l'intelligence artificielle est rattachée aux sciences informatiques.
  3. L'intelligence artificielle fait énormément appel à l'informatique (sans elle existerait-elle?).

--Pierre de Lyon (discuter) 1 juin 2017 à 15:09 (CEST)

Pas d'opposition, et même approbation, en ce qui me concerne. --Jean-Christophe BENOIST (discuter) 1 juin 2017 à 16:02 (CEST)

Illustrations et anthropomorphisme[modifier le code]

Trois photos représentent des robots à formes humaines. C'est beaucoup trop et ce sont les deux premières photos que l'on voit. Je pense que cette iconographie donne une image inadaptée de l'intelligence artificielle et risque de faire croire qu'il s'agit simplement d'une pâle imitation de l'humain, mignonne et bonhomme. C'est comme si l'on illustrait l'article aviation par l'avion de Clément Ader. --Pierre de Lyon (discuter) 3 juin 2017 à 12:02 (CEST)

+1--Yond29 (discuter) 3 juin 2017 à 13:12 (CEST)

Intelligence humaine ou intelligence humaine ou animale[modifier le code]

Dans le premier paragraphe l'intelligence artificielle est définie comme « mise en œuvre en vue de réaliser des machines capables de simuler l'intelligence humaine » et quatre lignes plus loin comme « [reproduction] des actions humaines et/ou animales ». Il faut choisir. --Pierre de Lyon (discuter) 14 juin 2017 à 14:49 (CEST)

Les automates (les anciens et les modernes) reproduisent ou simulent des action humaines . Il n'a pas forcément d'IA pour les piloter, parfois même pas d'automate (Automates industriel) . Un simple assemblage de roues dentés, de tambour à picots suffissent . L'IA simule l'intelligence humaine (dans ses mécanismes décisionnels) mais pas ses actions (éventuellement du domaine de la robotique). --Yond29 (discuter) 14 juin 2017 à 16:38 (CEST)
Je note que s'il ne s'agit que la décision, l'animal prend des décisions. Les loups, les renards, les lions poursuivant une proie prennent constamment des décisions intelligentes. Pour justifier ce choix (je comprends que tu choisis la simulation de l'intelligence humaine), peux-tu citer d'autres sources que l'encyclopédie Larousse ? --Pierre de Lyon (discuter) 15 juin 2017 à 15:58 (CEST)
A qui s'adresse la question ? Je ne suis pas le contributeurs ayant modifié récemment le RI.--Yond29 (discuter) 15 juin 2017 à 16:30 (CEST)
Je suis d'accord c'est un peu restrictif comme définition. --Jean trans h+ (discuter) 16 juin 2017 à 07:53 (CEST)
Notification Yond29 : Une question dans une page de discussion s'adresse à la communauté wikipédienne qui rédige l'article. Ici, il s'agit d'un choix et d'une contradiction constatée. Notification Jean trans h+ :La définition est trop restrictive ? Laquelle ? Car il y en a deux qui se contredisent. Je pense que tu veux dire que celle qui est trop restrictive est celle qui ne parle que de simulation de l'intelligence humaine. --Pierre de Lyon (discuter) 16 juin 2017 à 10:06 (CEST)
Oui exactement. On peut supprimer "humaine" de la première définition et éliminer la contradiction.--Jean trans h+ (discuter) 16 juin 2017 à 11:08 (CEST)

Image pour illustrer l'article[modifier le code]

Deep Blue, premier supercalculateur à battre un champion du monde d'échecs en titre.

Ce serait incroyable que l'article sur l'intelligent artificielle ne soit pas illustré par une image! Nous avons déjà eu cette discussion. Etant contre les images anthropomorphes, j'ai proposé l'image de Deep Blue qui est une étape dans l"histoire de l'intelligence artificielle. Notification Zugmoy : l'a déplacée deux fois. Ne voulant pas faire de guerre d'édition, j'ai transigé en répétant l'image au début et plus loin dans la section IA et jeux de stratégie. Pensez-vous que ce soit un bon compromis ? --Pierre de Lyon (discuter) 29 septembre 2017 à 14:39 (CEST)

Utiliser une image symbolique pour éviter une promotion de marque ou de technologie?--Yond29 (discuter) 29 septembre 2017 à 14:50 (CEST)
Je constate que les articles automobile et avion montrent des objets qui correspondent à des marques. Les promeuvent-ils ? --Pierre de Lyon (discuter) 29 septembre 2017 à 17:07 (CEST)
bon ici un image libre de droit assez symbolique pour présenter le sujet de manière trés neutre. C'est juste une suggestion. Pour le reste marque ou pas marque, ce n'est pas trop important mais il ne faudrait pas associer l'IA, aux yeux du lecteur, à des technologies trop ciblées en particulier si elles sont obsolète --Yond29 (discuter) 29 septembre 2017 à 17:53 (CEST)

Promotion de marques[modifier le code]

Notification Yond29 : fait remarquer à propos de l'image qui illustre l'article et qui est une vieille image de 27 ans que nous risquerions de promouvoir une marque qui n'est pas nommée. En revanche le sujet qu'il aborde est intéressant et nous devrions l'examiner à propos de la section Faits marquants depuis les années 2000 où de nombreuses marques sont nommées et promues. --Pierre de Lyon (discuter) 29 septembre 2017 à 17:16 (CEST)

Ne confondons pas[modifier le code]

Vitalisme et spiritualisme. L'antagoniste de matérialisme est spiritualisme.

--Jean-François Clet (discuter) 19 février 2018 à 14:18 (CET)

Intelligence artificielle et réchauffement climatique[modifier le code]

En faisant une recherche sur « Intelligence artificielle » et « réchauffement climatique », je trouve 312 000 résultats, comme par exemple celui-ci de juin 2017 : Challenge accepted : l'I.A. de Google s'attaque au climat qui évoque l'acquisition par Google de l'entreprise DeepMind spécialisée en intelligence artificielle. Il y aurait sans doute moyen d'inclure dans l'article une section « Intelligence artificielle et réchauffement climatique » permettant d'y voir clair sur les apports de l'IA dans ce domaine : en somme, est-ce un mythe ou une réalité ?Pautard (discuter) 12 février 2019 à 10:50 (CET)

Comme pour tous les sujets en "A et B", en procédant simplement par recherche Google, on aboutirait très probablement à une synthèse inédite, fondée plutôt sur des sources de presse, et au pire événementielles (comme l'exemple donné). Pas impossible, mais à éviter a priori. Rien ne nous guiderait pour savoir quel sujets sont à aborder dans cette section ; on risque d'en oublier comme par exemple l'empreinte carbone des serveurs d'IA, de sur ou sous-représenter certains thèmes ou sujets par sélection arbitraire de sources. Il faut rechercher (au moins) une source secondaire centrée sur ce sujet qui donne une idée des thèmes à aborder, leur WP:Proportion et des conclusions à en tirer. Et aussi, cela permet de déterminer objectivement si "B=réchauffement climatique" est un B véritablement pertinent, parmi les centaines de "B" que l'on pourrait imaginer (IA et société , IA et politique, IA et travail, IA et recherche etc.. etc.. etc..) et qui donneraient tous des milliers de "sources" sur Google et qui sont autant d'appels à la synthèse inédite. --Jean-Christophe BENOIST (discuter) 12 février 2019 à 11:19 (CET)

Après avoir attaqué différents articles de mathématiques, Hayani-maghrebi attaque aujourd'hui les article d'intelligence artificielle. Voyez Retour des mathématiciens marocains. Il s'agit d'un point de vue non scientifique sans références historiques, qu'il faut contrôler. --Pierre de Lyon (discuter) 26 mars 2019 à 09:19 (CET)

En effet, il semble y avoir un problème de WP:Proportion. Pour trancher objectivement, il faut prendre une (ou plusieurs) source(s) centrée(s) sur l'histoire du calcul et de la formalisation de la pensée et s'inspirer de leur WP:Proportion. --Jean-Christophe BENOIST (discuter) 26 mars 2019 à 10:06 (CET)
En fait, il y a un problème général avec cette section de l'article qui me parait en effet totalement hors sujet ou diu moins hors proportion (et Charles Babbage ou Ada Lovelace y seraient au moins autant à leur place), mais si on doit parler de Raymond Lulle, il ne semble pas faux de dire qu'il s'est inspiré de cet instrument marocain (dont j'ignorais totalement l'existence) ; en revanche, c'est clairement un TI (et sans doute faux) de penser que cet usage était déjà anticipé par les mathématiciens marocains, exactement comme si on considérait le Yi-King comme anticipant les idées de Leibniz.--Dfeldmann (discuter) 26 mars 2019 à 10:20 (CET)

La Zairja et le plagiat occidental[modifier le code]

Bonjour à tous, il semblerait que ma contribution sur cette page ne soit pas la bienvenue pour une raison qui m'est encore obscure, en effet dans la section "pensée automatique" j'ai ajouter un personnage du XIII siècle qui a inventer une machine assez célèbre dans le milieux des artefacts d'intelligence artificielle, Abu Al Abbas Al Sabti est l'inventeur de la "Zairja" une machine a pensée que j'ai découverte très récemment, la fiche francaise de la Zairja sur wikipedia n'existe pas mais vous pouvez la trouver en anglais, j'ai parcourue plusieurs textes concernant les intelligences artificielle à travers l'histoire et les chercheurs sont unanime...raymond lulle a plagier la Zairja en effet toutes les fonctionnalités de la "ars magna" de raymond lulle appartiennent à la Zairja que cela soit le mouvement mecanique, les volvelles, l’algorithme de calcul et surtout les fonctions combinatoire, je suis en contacte par email avec le chercheur David Link et il me confirme meme que la fonction de "logique" sera integré par la Zairja bien avant que raymond lulle ne l’intègre à son imitation...ma question pleine de bon sens est la suivante; pour quelle raison la Zairja de Abu Al Abbas Al Sabti n'est pas cité au coté des autres grands noms de l'inteligence artificielle ? en sachant que le plagiaire raymond lulle et son imitation y figures ? --Hayani-maghrebi (discuter) 31 mars 2019 à 00:50 (CET)

Intelligence artificielle et fin du travail ?[modifier le code]

Bonjour,
J'aimerais ajouter une section sur cette page concernant l'analyse des hypothèse de la fin du travail liée à l'IA. Cette réflexion prend sa source dans un rapport de 2013 de Frey et Osborne (Oxford) qui annonce que 47% des emplois seront automatisés d'ici 2030. Je pense qu'il est cohérent de faire mention des inquiétudes, puisque c'est un thème qui revient assez souvent lorsqu'on évoque les enjeux liés à l'IA. Il est aussi à mon sens nécessaire de critiquer ces études (ce que je me suis efforcé de faire) car d'autres études sérieuses vont dans un sens complètement opposés. Notamment, j'ai jugé cohérent d'évoquer le digital labour qui est intrinsèquement lié à la production de ces intelligences artificielles.

Il est certes intéressant de faire de la prospective en interrogeant les conséquences possibles dans un avenir plus ou moins proche, mais je pense qu'il est aussi essentiel de faire un état des lieux des conséquences actuelles de l'intelligence artificielle.

J'espère que cette modification sera la bienvenue, n'hésitez pas à me faire part de vos commentaires.

Cette modification est réalisé dans le cadre du séminaire « Étudier les culture du numériques » d'Antonio Casilli à l'EHESS.— Le message qui précède, non signé, a été déposé par Hugomonniello-ecn (discuter), le 19 avril 2019 à 15:55

Je pense que toute initiative d'amélioration de l'article est la bienvenue, du moment que c'est sourcé. Je pense que cette section est pertinente. La section pourrait s'appeler "Impact dans la société". Merci à vous et bonne journée. --Fschwarzentruber (discuter) 20 avril 2019 à 16:04 (CEST)

Phrase dans le paragraphe d'accroche[modifier le code]

Bonjour,

Le paragraphe introductif comporte la phrase suivante : "Ses finalités et son développement suscitent, depuis toujours, de nombreuses interprétations, fantasmes ou inquiétudes s'exprimant tant dans les récits ou films de science-fiction que dans les essais philosophiques. La réalité semble encore tenir l'intelligence artificielle loin des performances du vivant ; ainsi, l'IA reste encore bien inférieure au chat dans toutes ses aptitudes naturelles." Je ne suis pas sûr que la comparaison faite "au chat" dans l'introduction soit significative ou pertinente. Elle soulève d'ailleurs plus de questions : comment évaluer l'intelligence ? qu'est-ce que les aptitudes naturelles ? est-ce pertinent de juger la capacité d'un IA à reproduire des "aptitudes naturelles" d'un chat quand bien même ce n'est pas forcément ce que l'on cherche à faire. Evalue-t-on une IA sur sa capacité à attraper des souris ou évalue-t-on le chat sur sa capacité à faire des modèles de régression de données ?

L'article source sur Slate ne me semble pas une référence pertinente : l'auteur y exprime l'infériorité de l'IA dans le domaine de la perception cognitive comparé à un animal. C'est un exercice intéressant, mais biaisé, l'auteur se contentant de comparaisons vague ("mon chat reconnait le mobilier" vs "une IA de voiture a confondu un panneau") voire hors sujet (l'exemple de la Robocup où les robots semblent maladroits, mais où l'exercice de base était de concevoir des stratégies de groupe et la maladresse tient principalement de la conception des robots eux mêmes). A méditer ? — Le message qui précède, non signé, a été déposé par l'IP 37.164.147.239 (discuter), le 30 novembre 2019 à 17:54 (CET)

Mélange applications jeux vidéo et section jeux[modifier le code]

Bonjour,

je me suis rendu compte que la section "Domaines d'application: Jeux Vidéo" et "L'intelligence artificielle et le jeux" faisaient un peu doublon. Je pense qu'il vaudrait mieux regrouper les parties jeux vidéo ensemble, et laisser la section "L'intelligence artificielle et le jeux" aux jeux type Go/Echec Je serai intéressé par avoir des retours des contributeurs réguliers comme Zugmoy (d · c · b) ou Jean-Christophe BENOIST (d · c · b), ou tout autre personne !

Ywats0ns (discuter)

C'est tout à fait cela. Entièrement en accord. Ping aussi Dfeldmann (d · c · b) --Jean-Christophe BENOIST (discuter) 9 juillet 2020 à 17:23 (CEST)
Par ailleurs, je souhaiterai emmener cette page jusqu'au label BA, j'ai apporté plusieurs modifications ces derniers temps, je serai intéressé par vos retours
Ywats0ns (discuter)

Déplacement Estimation de faisabilité IA faible[modifier le code]

Bonjour, je trouve que la section Estimation de faisabilité de l'IA faible n'a pas spécialement de sens. Elle reprend surtout des arguments concernant la capacité à passer le test de Turing, je propose donc de la passer dans la partie juste en dessous, sous un autre nom. Je pense aussi faire un passage sur les AGI (Artificial General Intelligence), qui ne sont pour l'instant pas du tout présentes dans l'article. L'idéal serait dans la définition d'IA forte, pour préciser que c'est une possibilité. Je vois qu'il y avait une discussion sur cette page à ce sujet il y a quelques années, mais le sujet n'est plus un TI aujourd'hui

Ywats0ns (discuter) 16 juillet 2020 à 10:10 (CEST)

Il y a avant quelque-chose à éclaircir : il y a un certain temps (mais peut-être plus maintenant) "IA faible" avait pour signification une IA généraliste, mais dépourvue de conscience, purement "mécanique". Donc sa faisabilité était très liée au test de Turing. Il semble que la définition a évolué pour inclure la notion de "Narrow AI", qui sont des IA dédiées à une tâche précise. Dans ce cas, on s'écarte des tests de Turing en effet. J'aimerais bien voir des définitions sourcées de "IA faible" dans l'article, ce qui n'est pas le cas en ce moment, ni même dans l'article dédié. Jean-Christophe BENOIST (discuter) 16 juillet 2020 à 13:24 (CEST)
A ma connaissance, le test de Turing reste axé sur la conversation uniquement, donc un champ précis de l'IA (pas de vision, audio, ...), bien qu'un des plus important. Concernant la partie narrow ai, il serait intéressant de faire cette distinction dans la partie IA faible, en précisant l'évolution du terme. Cependant pour moi la partie test de turing et difference entre deep learning et machine learning ne sont pas propres à la partie IA faible. Si cela vous convient, j'ajoute cette distinction (il existe des sources intéressantes notamment sur l'article anglais d'ia faible) et je sépare les 2 sous-parties
Ywats0ns (discuter) 16 juillet 2020 à 13:37 (CEST) Ywats0ns (discuter) 16 juillet 2020 à 13:38 (CEST)
Bonjour, si tout vous convient je compte faire la modification en question Ywats0ns (discuter) 20 juillet 2020 à 12:06 (CEST)
Pas de souçis. Jean-Christophe BENOIST (discuter) 20 juillet 2020 à 12:56 (CEST)


Demande de relecture[modifier le code]

Cet article a fait l'objet d'une demande de relecture par l'atelier de relecture.

  • état : demande
  • demandeur : [[Utilisateur:Ywats0ns (d · c · b)|Ywats0ns (d · c · b)]] - ([[Discussion utilisateur:Ywats0ns (d · c · b)|discuter]])
  • date de demande : 20 juillet 2020
  • relecteur : - - (discuter)
    • pris en charge le : -
    • terminé le : -
  • commentaire : -
  • avancement :
    - %

RIPON = IA ?[modifier le code]

@Lamiot Elle est parfois désignée comme une IA (cf. article RIPON), mais c'est assez discutable (c'est plutôt un algo de Big Data que leur concepteur qualifient d'IA pour faire bien) et en tout cas pas une IA générative comme dit dans l'article. Les source utilisées pour sourcer cela sont plutôt primaires et difficiles à vérifier. En tout cas, je ne sais pas si on peut dire que c'est "Le premier exemple majeur d'utilisation néfaste d'une IA générative" comme suggéré dans l'article. Quelle source dit que c'est "Le premier exemple majeur d'utilisation néfaste d'une IA générative" ? Jean-Christophe BENOIST (discuter) 31 mars 2023 à 12:09 (CEST)

Oui, bonjour ou bonsoir et merci pour ces deux avis et cette questions, tous judicieux.
L'affaire commence à dater, et je n'avais plus tout en mémoire, et comme le sujet est complexe je me suis donc replongé dans les sources secondaires pour répondre. Je pense que ma réponse doit être étayée et contextualisée. => Elle sera donc un peu longue.
Et comme la question semble spécifiquement concerner Ripon et pas l'IA en général ; pour ne pas encombrer la présente PdD, je propose de transférer la question et le débat sur la PdD de l'article consacré à Ripon, et j'invite les lecteurs/trices intéressé(e)s à s'y référer (éventuellement on pourra ensuite rapatrier ici un bref résumé des débats si débats il y a).
Pour cette réponse, faute d'assez de temps disponible, je vais me baser sur les sources secondaires dont je disposai vers 2020, car je n'ai pas l'impression qu'il y a eu grands chose de neuf depuis sur le sujet (si je me trompe, merci de me corriger, je suis preneur d'infos ou sources secondaires plus récentes). Je vais essayer de répondre dans les 48h ou moins.
A très bientôt, et encore merci pour la question. Lamiot (discuter) 1 avril 2023 à 16:01 (CEST)
@Lamiot De toutes manières, la question est moins de savoir si Ripon est une IA ou non (ce qui se discute) que de savoir s'il peut être présenté comme un exemple emblématique d'IA et qui le présente ainsi. Jean-Christophe BENOIST (discuter) 2 avril 2023 à 10:27 (CEST)
Oui, j'ai apporté quelque éléments de débat ou réflexion à ce propos, dans la PdD de l'article consacré à Ripon (dans le bas de la PdD pour ce dernier point, mais les autres sections peuvent aussi éclairer le lecteur sur l'ampleur de la désinformation et sur le fait qu'elle est (ou non) la première de cette ampleur dans le monde. --Lamiot (discuter) 3 avril 2023 à 00:47 (CEST)
Les désinformations de grande ampleur peuvent avoir lieu avec des algorithmes et sans IA. Or, nous sommes dans l'article IA. Jean-Christophe BENOIST (discuter) 3 avril 2023 à 09:22 (CEST)

Clarifier la définition d'intelligence artificielle forte[modifier le code]

Il y a deux concepts distincts :

1 - le fait qu'une IA soit ou puisse devenir au moins aussi compétente que l'humain dans un large éventail de domaines. (=> intelligence artificielle générale)

2 - le fait qu'une IA soit consciente (au sens de sentience (qu'elle puisse éprouver des choses comme par exemple la souffrance), ou autre)

(1) n'implique pas forcément (2), et (2) n'implique pas forcément (1).

La section "Définition" est actuellement plutôt liée au concept (2), et me paraît difficilement exploitable. Mais la partie "Estimation de faisabilité" semble, elle, plutôt liée au concept (1).

L'article Anglais "Artificial general intelligence" est beaucoup plus clair, et est plutôt lié au concept (1). Et il a une section "Terminology" qui clarifie les termes, et notamment le fait que le terme "strong AI" est des fois associé au concept (2).

Je propose deux choses: clarifier la définition et notamment le fait qu'il y a plusieurs définitions possibles (en évitant des expressions floues comme "capable [...] de modéliser des idées abstraites"), et faire un nouvel article "Intelligence artificielle générale" traduit de l'article Anglais "Artificial general intelligence" (le thème semble avoir suffisamment gagné en popularité pour mériter un article séparé. Si personne n'est intéressé, je me porte volontaire pour la traduction). Alenoach (discuter) 8 avril 2023 à 18:10 (CEST)

La définition actuelle est sourcée, mais il faudrait vérifier si la source (Le Garff) n'est pas un peu extrapolée. Mais en effet la définition (2) - exprimée dans ces termes - n'est pas très opérationnelle. Cependant (1) mérite d'être très soigneusement exprimée, et de toutes manière d'être sourcée. Il est possible que des IA génératives comme ChatGPT soient aussi compétentes que l'humain dans un large éventail de domaines pourtant je ne crois pas qu'il y a consensus pour la qualifier d'IA forte (à cause de (2) justement, mais plutôt exprimée en terme de compréhension (ChatGPT ne comprends pas) que de conscience). Jean-Christophe BENOIST (discuter) 8 avril 2023 à 18:44 (CEST)
La définition la plus claire que j'ai trouvée me semble être celle du site [2]https://datafranca.org/wiki/Intelligence_artificielle_forte
En synthétisant un peu (et en ajoutant les mots "souvent" et "voire"), ça pourrait donner :
L’IA forte se définit d’abord comme une intelligence artificielle générale, capable de résoudre tout genre de problème. Par extension, le concept d'IA forte recouvre souvent la capacité à comprendre ses propres raisonnements et le fait d'avoir une conscience, voire des sentiments.
Qu'en pensez-vous ? Est-ce que cette définition est suffisamment simple, correcte et fidèle à la source ? (Ou avez autre chose à proposer ?) Alenoach (discuter) 10 avril 2023 à 02:48 (CEST)
Du coup, je ne vois pas la différence fondamentale avec la définition actuelle de l'article, qui ne semble pas si mauvaise que cela finalement et que je préfère en l'état. Jean-Christophe BENOIST (discuter) 10 avril 2023 à 09:01 (CEST)
Je viens de découvrir une vidéo qui parlait précisément de ça (titre: "Vers Une Super Intelligence Artificielle ? - Jérémy Perret", extrait: 42:13 à 44:16). Ca n'a pas valeur de référence Wikipédia, mais ça explique comment le terme "IA forte" est en fait issu d'une confusion historique avec une vielle expérience de pensée philosophique (voir Chambre chinoise), et est trop enchevêtrée de considérations philosophiques pour être vraiment utilisable en pratique. Je tombe tout à fait d'accord avec la conclusion de Jérémy Perret dans la vidéo : "C'est un vieux terme qu'il serait très bon de bazarder".
En fait, la solution, si on souhaite bien faire, c'est de parler d'intelligence artificielle générale, dont le sens est déjà nettement mieux définit. (la définition de l'article Anglais Artificial general intelligence est très bonne, si je dois donner une source en Français, même si c'est moins bien, ce serait celle-là : https://datafranca.org/wiki/Intelligence_artificielle_g%C3%A9n%C3%A9rale). Alenoach (discuter) 11 avril 2023 à 03:39 (CEST)
Le terme "intelligence artificielle générale" est en effet de plus en plus utilisé, n'est pas synonyme de IA forte (une IA forte est forcément une IA générale, mais l'inverse n'est pas vrai), et ce serait une bonne chose de la traiter en particulier dans l'article. N'hésitez pas ! Les sources anglophones sont tout à fait utilisable, voire traduire depuis WP:en. Jean-Christophe BENOIST (discuter) 11 avril 2023 à 12:18 (CEST)

Paragraphe qui semble obsolète[modifier le code]

Je serais curieux d'avoir votre avis sur le 4e paragraphe de l'introduction. J'ai personnellement l'impression que ce qui y est mis n'est plus vraiment à jour, mais peut-être que je manque de neutralité.

"la réalité semble encore tenir l'intelligence artificielle généraliste loin des performances du vivant ; ainsi, l'IA reste encore bien inférieure au chat dans toutes ses aptitudes naturelles" => Les évolutions de ces dernières années ont été spectaculaires. OpenAI considère même que l'on pourrait avoir des superintelligences dans moins de 10 ans (https://openai.com/blog/governance-of-superintelligence). Je comprends l'idée que les corps robotisés, à part ceux de Boston dynamics, sont souvent encore aujourd'hui assez patauds. Mais peut-on encore considérer que GPT-4 et ses dérivés sont bien inférieurs au chat dans toutes ses aptitudes naturelles alors que GPT-4 commence à dépasser l'humain moyen dans de nombreux benchmarks de traitement du langage ? Ne serait-ce pas un peu similaire au fait de dire que l'humain est inférieur au poisson dans ses aptitudes naturelles comme la nage ?

"Ses finalités et enjeux ainsi que son développement suscitent, depuis l'apparition du concept, de nombreuses interprétations, fantasmes ou inquiétudes" => Derrière "fantasmes", la source mentionnée semble faire principalement référence aux risques de perte de contrôle d'une IA. Un risque dont certains prétendaient encore qu'aucun vrai expert en IA ne prend au sérieux. Mais qui est aujourd'hui largement admis par la plupart des chercheurs en IA (https://aiimpacts.org/2022-expert-survey-on-progress-in-ai/) parmi lesquels Geoffrey Hinton, Yoshua Bengio, Stuart Russell ; par les dirigeants des grands labos d'IA (à part Meta, https://www.safe.ai/statement-on-ai-risk), et par le premier ministre britannique. On ne peut plus objectivement dire que ce soit un fantasme de science fiction.

Je pense que ce paragraphe est correctement sourcé et semblait peut-être pertinent il y a quelques années, mais c'est probablement plus vraiment le cas aujourd'hui et il faudrait peut-être le modifier ou le retirer.

Qu'en pensez-vous ? Alenoach (discuter) 31 mai 2023 à 17:38 (CEST)

Les progrès de l'IA sont tels que même un paragraphe daté de 6 mois pourrait être obsolète. Et un paragraphe rédigé aujourd'hui pourra être obsolète dans 6 mois. Donc pas facile de gérer l'article en ce moment. Pour ma part je m'y attaquerais, peut-être, quand la situation se stabilisera un tant soit peu. Mais si des courageux veulent s'y attaquer, je ne les décourage pas. Jean-Christophe BENOIST (discuter) 31 mai 2023 à 20:09 (CEST)
On est très loin de l'intelligence du chat, et ce n'est pas moi qui le dit, c'est Yann Le Cun: https://twitter.com/ylecun/status/1622300311573651458?lang=fr, et quand au risque, c'est très débattu, et est loin d'être reconnu par tout le monde. De plus ce n'est pas tant le risque de perte de contrôle qui est mis en avant par les chercheurs, que la mauvaise utilisation et les biais systématiques. Sylenius (discuter) 1 juin 2023 à 22:02 (CEST)
Bonjour, les arguments évoqués il y a quatre ans à propos du chat me semblent encore valables aujourd'hui ; justement parce que ses aptitudes dépassent celles de l'IA en maîtrise et en diversité. Et s'ils ne l'étaient pas, cette mention mériterait de figurer quelque part dans l'article pour son intérêt historique.
Pareil en ce qui concerne « depuis l'apparition du concept, de nombreuses interprétations, fantasmes ou inquiétudes », qui est sans doute d'autant plus d'actualité depuis la popularisation de GPT-4. La notion de fantasme est aussi développée dans la section Intelligence artificielle#Intelligence artificielle et travail numérique. Salutations — Vega (discuter) 1 juin 2023 à 22:28 (CEST)
Ça reste assez bizarre et subjectif de comparer un modèle de langage avec un chat. D'ailleurs, il y a pas mal d'aspects du langage où GPT-4 a déjà des performances comparables à l'humain (notamment dans les scores aux examens https://www.lebigdata.fr/gpt-4-tout-savoir, et en termes de créativité https://www.lebigdata.fr/chatgpt-creatif-humains). Est-ce qu'il ne faudrait pas au moins préciser que c'est une opinion personnelle et non un consensus général ? Et est-ce que ça vaut vraiment le coup de le mettre dans l'introduction ? Alenoach (discuter) 22 juillet 2023 à 08:03 (CEST)
L'IA a depuis longtemps dépassé le chat et même l'Homme dans des domaines très précis (comme les échecs par exemple). Mais en intelligence générale et adaptabilité je suis d'accord avec Vega, la situation n'a pas tant changée. En revanche il devrait être possible de trouver une autre formulation pour le même message, peut-être encore plus important de nos jours, de ne pas confondre skill et intelligence générale. --Jean-Christophe BENOIST (discuter) 22 juillet 2023 à 08:39 (CEST)
Voilà j'ai fait une proposition. Jean-Christophe BENOIST (discuter) 22 juillet 2023 à 08:43 (CEST)

En France[modifier le code]

Dans la section En France, alors que le premier paragraphe parle vraiment d'histoire, les trois paragraphes qui suivent ne portent que sur 2017 (il y a 5 ans). Ils n'ont plus aujourd’hui qu'un aspect anecdotique. Je propose de les supprimer. Pierre Lescanne (discuter) 15 juillet 2023 à 12:07 (CEST)

C'est le problème de faire des articles à partir de sources événementielles.. Evidemment pour la suppression (en laissant peut-être un mot sur la politique IA de la France). Pour une fois que quelqu'un revient sur un article avec du recul, tous mes encouragements ! Jean-Christophe BENOIST (discuter) 15 juillet 2023 à 16:05 (CEST)