OpenAI

Un article de Wikipédia, l'encyclopédie libre.
OpenAI
Logo d'OpenAI.
Siège social d'OpenAI à San Francisco en Californie.
Histoire
Fondation
Cadre
Type
Forme juridique
Domaines d'activité
Siège
Pays
Organisation
Effectif
375 employés ()Voir et modifier les données sur Wikidata
Fondateurs
Elon Musk, Sam Altman, Ilya Sutskever, Greg Brockman (en), Wojciech Zaremba (en), Andrej KarpathyVoir et modifier les données sur Wikidata
Directeur
Sam Altman (depuis )Voir et modifier les données sur Wikidata
Personnes clés
Dépenses
1,4 M$ ()Voir et modifier les données sur Wikidata
Site web
(en) openai.comVoir et modifier les données sur Wikidata
Identifiants
IRS
OpenCorporates

OpenAI (« AI » pour artificial intelligence, ou intelligence artificielle) est une entreprise spécialisée dans le raisonnement artificiel, à « but lucratif plafonné », dont le siège social est à San Francisco. Avant , elle est reconnue association à but non lucratif. L'objectif de cette société est de promouvoir et de développer un raisonnement artificiel à visage humain qui profitera à toute l'humanité[1]. Grâce à un fonds initial de 100 millions de dollars, OpenAI cherche à s'associer à quelques startups utilisant le raisonnement artificiel pour avoir un effet transformateur, par exemple dans les domaines des soins de santé, du changement climatique et de l'éducation et « où les outils d'IA peuvent autonomiser les gens en les aidant à être plus productifs »[2].

Historique[modifier | modifier le code]

OpenAI est fondée en tant qu'association à but non lucratif le [1],[3],[4],[5]. Les deux présidents en sont Elon Musk et Sam Altman, les membres, Jessica Livingston, YC Research (branche de Y Combinator destinée à l'innovation), Peter Thiel (capital-investisseur), Amazon Web Services, Reid Hoffman et Infosys, société indienne. Musk, Thiel et Hoffman se sont connus à l'époque de PayPal.

Le cofondateur Greg Brockman a pu attirer certains des meilleurs chercheurs de l'époque en apprentissage automatique, notamment avec des salaires attractifs et une vision commune[6].

Les fondateurs se sont engagés en 2015 sur un budget global d'un milliard de dollars, cependant seule une faible part serait utilisée dans les premières années[7].

Elon Musk quitte la société en 2018 à la suite d'un conflit de direction[8],[9].

En , l'association devient une entreprise à but lucratif plafonné pour attirer des capitaux[10],[11]. L'objectif de ce nouveau statut est de permettre aux investisseurs de recevoir une partie des bénéfices de la société jusqu’à un maximum de 100 fois la mise de départ[12].

En 2019, Microsoft a par ailleurs annoncé son intention d'investir un milliard de dollars dans OpenAI, en échange d'un partenariat privilégié avec OpenAI, lorsque la société commercialisera ses technologies d'intelligence artificielle[13].

En 2020, OpenAI lance GPT-3, un modèle de langage entraîné sur de larges quantités de texte issus d'internet[14]. Puis en 2021, OpenAI annonce DALL-E, la première version d'un modèle capable de générer des images à partir de descriptions textuelles[15].

En 2022, OpenAI acquiert une renommée mondiale après la sortie de ChatGPT, un modèle de langage accessible gratuitement[16]. Basé sur GPT 3.5, ChatGPT a été spécifiquement entraîné pour le dialogue[14].

En janvier 2023, Microsoft annonce un investissement de 10 milliards de dollars réparti sur plusieurs années[17], et commence ensuite à intégrer la technologie derrière ChatGPT dans des produits comme Bing, Office ou Outlook[18].

En , la société OpenAI est valorisée à 29 milliards de dollars américains[19].

Le , OpenAI annonce officiellement GPT-4, un modèle de langage plus puissant et capable aussi d'analyser des images[20]. Une version de ChatGPT basée sur GPT-4 devient accessible via l'abonnement payant "ChatGPT Plus"[20].

En mai 2023, les cofondateurs d'OpenAI Sam Altman, Greg Brockman et Ilya Sutskever publient des recommandations sur la gouvernance des superintelligences[21],[22]. Ils y déclarent qu'en moins de 10 ans, l'IA pourrait dépasser les compétences des meilleurs experts dans la plupart des domaines, ouvrant la voie à un futur « radicalement plus prospère » à condition de « gérer les risques pour y arriver »[23]. Ils y recommandent d'encourager la recherche sur la question du contrôle des superintelligences, ainsi que d'améliorer la coordination internationale par exemple à travers un projet commun, et de créer une organisation de surveillance similaire à l'Agence internationale de l'énergie atomique (AIEA) pour superviser les modèles d'IA les plus puissants. Ils estiment cependant que ces mesures ne devraient concerner que les modèles d'IA dépassant un certain seuil d'aptitude, afin de ne pas entraver l'innovation pour des modèles moins dangereux[21],[22].

Après avoir ouvert un bureau londonien en juin 2023, son premier hors des États-Unis, OpenAI annonce également s'installer dans l'Union européenne en ouvrant un bureau à Dublin fin 2023[24].

En , Sam Altman est destitué de son poste de CEO en raison du manque de confiance du conseil d'administration à son égard, la directrice technique Mira Murati prenant la relève de manière intérimaire[25]. Le même jour, Greg Brockman, cofondateur d'OpenAI, annonce son départ comme président du conseil d'administration[26]. Deux jours plus tard, Emmett Shear est annoncé au poste de CEO par intérim[27], tandis qu’Altman et Brockman rejoignent les rangs de Microsoft[28]. Quelques jours plus tard, Sam Altman redevient CEO d'OpenAI et Greg Brockman réintègre le conseil d'administration.

Motivations[modifier | modifier le code]

Certains scientifiques comme Stephen Hawking et Stuart Russell ont évoqué le risque que l'IA soit dans le futur capable de s'auto-améliorer, ce qui selon eux pourrait causer une « explosion d'intelligence » pouvant mener à l'extinction de l'humanité. Le cofondateur Elon Musk a décrit l'IA comme la « pire menace existentielle »[29]. OpenAI a été créée dans le but de réduire ces risques. Les fondateurs en ont fait un organisme à but non lucratif, afin qu'elle concentre ses recherches sur les moyens de rendre l'IA bénéfique pour l'humanité[30].

Elon Musk et Sam Altman ont affirmé être en partie motivés par la sûreté des intelligences artificielles et les risques de catastrophe planétaire liés à l'intelligence artificielle générale[31],[32]. Selon OpenAI, « il est difficile d'imaginer à quel point l'IA de niveau humain pourrait améliorer la société, et il est tout aussi difficile d'imaginer à quel point ça pourrait nuire à la société si c'était mal conçu ou utilisé »[33]. Remettre à plus tard la recherche sur la sûreté pourrait être dangereux : « il est difficile de prédire quand l'IA de niveau humain pourrait devenir faisable »[34]. OpenAI affirme que l'IA « devrait être une extension de la volonté humaine et, dans un esprit de liberté, distribuée aussi largement et aussi équitablement que possible »[35]. Sam Altman s'attend en 2015 à ce que ce projet dépasse un jour l'intelligence humaine[36].

L'ancien PDG de Infosys Vishal Sikka a annoncé en 2015 que le fait que OpenAI soit ouvert et produise des résultats dans l'intérêt général de l'humanité était une condition essentielle de son support, ajoutant que « OpenAI s'aligne très bien avec nos valeurs de longue date »[37]. Cade Metz, du magazine Wired, suggère que des corporations comme Amazon pourraient être motivées par le fait d'utiliser des logiciels et des données open source pour se mettre au niveau de corporations comme Google et Facebook, qui ont d'énormes quantités de données propriétaires[36].

Stratégie[modifier | modifier le code]

Elon Musk a posé la question : « Quelle est la meilleure chose que vous puissiez faire pour garantir que le futur soit bien ? Nous pourrions nous poser à l'écart ou encourager une surveillance réglementaire, ou nous pourrions participer avec la bonne structure et avec des personnes qui se soucient profondément du fait de développer l'IA de manière sûre et bénéfique pour l'humanité[38]. » Il a reconnu qu'« il y a toujours un risque pour qu'en essayant de faire avancer l'IA [amicale] on puisse créer ce qui nous inquiète[39] » mais affirme que la meilleure défense est « de permettre au plus grand nombre d'avoir accès à l'IA. Si tout le monde a des pouvoirs d'IA, alors il n'y a aucun individu ou petit groupe d'individus possédant des super-pouvoirs d'IA[40]. »

La stratégie contre-intuitive d'Elon Musk et Sam Altman pour réduire les risques à grande échelle posés par l'IA, qui consiste à donner à tout le monde accès à l'IA, est controversée même parmi ceux qui s'inquiètent de risques de catastrophe planétaire liés. Le philosophe Nick Bostrom est sceptique face à cette approche : « Si vous avez un bouton qui pourrait avoir un mauvais effet sur le monde, vous n'avez pas envie de le donner à tout le monde[32]. » Au cours d'une conversation sur la singularité technologique en 2016, Sam Altman a dit qu'ils ne prévoyaient pas de diffuser tout leur code source et a mentionné un plan pour permettre à des gens du monde entier d'élire des représentants pour un nouveau conseil d'administration[41].

La décision initiale d'OpenAI, en 2019, de ne pas diffuser le code source de GPT-2 pour éviter le risque d'usages malveillants a été critiquée par les partisans d'un modèle ouvert au grand public, notamment parce que la recherche scientifique aurait besoin qu'OpenAI publie son travail pour pouvoir répliquer les résultats et pour mettre en place des contre-mesures. Delip Rao, expert en génération de texte, suggère aussi qu'OpenAI n'a pas « passé suffisamment de temps à prouver que c'était dangereux »[42].

En 2022, OpenAI a publié sa stratégie concernant le problème de l'alignement[43]. OpenAI s'attend à ce que les techniques du moment ne suffisent pas à sécuriser les intelligences artificielles générales (IAG) : « l'IAG pourrait poser des risques substantiels à l'humanité, et résoudre le problème de l'alignement des IAG pourrait s'avérer si difficile que cela nécessiterait que toute l'humanité y travaille ensemble ». Ses membres explorent comment mieux exploiter les préférences humaines pour entraîner leurs systèmes d'IA. Ils envisagent aussi d'utiliser l'IA pour automatiser progressivement la recherche sur l'alignement[44].

Produits[modifier | modifier le code]

GPT-2[modifier | modifier le code]

En février 2019, OpenAI met au point une intelligence artificielle nommée GPT-2 (Generative Pre-trained Transformer 2), capable d'écrire des articles de presse et des œuvres de fiction.

Reposant sur un générateur de texte qui assimile les mots reçus et détermine la suite la plus logique, qu'elle retransmet dans le même style, elle s'avère particulièrement performante, à tel point qu'il est impossible de faire la différence avec un texte écrit par un être humain[45].

Les chercheurs lui ont par exemple donné à lire la première phrase du roman 1984 de George Orwell : « C'était une journée ensoleillée et froide du mois d'avril et les horloges affichaient 13 h. » GPT-2 a alors compris qu'il s'agissait d'une œuvre évoquant le passé et écrite sous la forme d'une fiction et a ajouté : « J'étais dans ma voiture à Seattle en route pour mon nouveau travail. J'ai fait le plein, mis la clé sur le contact, et me suis laissé porter. J'ai imaginé à quoi ressemblerait ce jour. Dans cent ans à partir de ce jour. En 2045, j'étais professeur dans une école située dans une région pauvre de la Chine rurale. J'ai commencé avec l'Histoire de la Chine et l'Histoire de la science. » Ils lui ont également présenté un article du Guardian sur le Brexit et l'IA a été capable d'inventer des citations crédibles du député Jeremy Corbyn, principal opposant à Theresa May, et d'évoquer des thématiques précises liées au sujet, comme celle de la frontière irlandaise. Les chercheurs retardent la publication de leurs recherches, car ils estiment que GPT-2 a un potentiel « trop dangereux », étant donné que cette IA pourrait à terme servir à des actes mal intentionnés, comme générer des avis négatifs ou positifs sur des produits, des spams, des textes complotistes, voire des fausses nouvelles[46].

GPT-3[modifier | modifier le code]

La version bêta privée du successeur de GPT-2 ouvre en . Encore plus puissante, cette intelligence artificielle destinée au traitement du langage naturel présente 175 milliards de paramètres, soit au moins dix fois plus que n'importe quel programme comparable jusqu'alors[47],[48] Différentes versions de GPT-3 peuvent être testées via le "playground" d'OpenAI[49].

GPT-4[modifier | modifier le code]

Le 14 mars 2023, OpenAI annonce la sortie de GPT-4, qui est capable de traiter non seulement du texte, mais aussi des images[50]. GPT-4 peut lire, analyser et générer jusqu'à 25 000 mots[51], et écrire dans tous les principaux langages de programmation.

ChatGPT[modifier | modifier le code]

Dérivé du modèle GPT-3.5 et lancé en novembre 2022, ChatGPT est un modèle de langage formé à partir d'une vaste quantité de données textuelles afin d'acquérir une compréhension approfondie du langage humain. ChatGPT peut être utilisé pour générer du texte de manière autonome, en imitant les styles et les sujets de conversation humains. Il peut également être utilisé pour améliorer les systèmes de dialogue en leur fournissant des réponses naturelles et pertinentes. En outre, ChatGPT peut s'adapter aux nouvelles données et retours des utilisateurs pour affiner ses capacités linguistiques, quand bien même cela suppose de renouveler un entraînement pour les intégrer[52],[53],[54].

L'une des caractéristiques de ChatGPT qui contribue à sa qualité de réponse est sa capacité à tenir compte du contexte grâce à sa mémorisation de la conversation en cours (jusqu'à un maximum de 3 000 mots environ)[55].

Dès la sortie de GPT-4, ce modèle est ajouté à ChatGPT pour ses utilisateurs payants. OpenAI continue ensuite à développer des outils pour GPT-4 et à les intégrer sur ChatGPT, comme les plugins Avanced data analysis, Bing search ou DALL-E 3[56]

Une application mobile officielle voit également le jour sous Android et iOS, qui permet notamment de discuter de vive voix avec ChatGPT pour les abonnés[57],[58]

DALL-E[modifier | modifier le code]

Dérivé du modèle GPT-3, OpenAI développe également un générateur d'images nommé DALL-E, mot-valise évoquant à la fois le robot de Pixar WALL-E et le peintre Salvador Dalí. Ce modèle génératif peut créer des images originales à partir de texte[59]. Le programme est capable de mettre en illustration des concepts très abstraits, voire farfelus, comme les dessins d'un radis promenant un chien en laisse[60].

DALL-E 2[modifier | modifier le code]

Deuxième modèle crée par OpenAI permettant de générer des images plus détaillés en s'appuyant sur des descriptions plus précises.

DALL-E 3[modifier | modifier le code]

Fin septembre 2023, OpenAI annonce sortir DALL-E 3, son dernier modèle de génération d'images à partir de texte, qui permet depuis de générer du texte cohérent sur les images. DALL-E 3 est également ajouté sur ChatGPT-4 pour les utilisateurs abonnés[61].

Sora[modifier | modifier le code]

Annoncé le Sora est une intelligence artificielle développée par OpenAI, capable de générer des vidéos ultra-réalistes à partir d’un simple texte. Basée sur les recherches antérieures menées sur les programmes DALL-E et GPT, Sora est une innovation majeure dans le domaine de l’intelligence artificielle.

Sora peut générer des scènes complexes avec plusieurs personnages, des mouvements de caméra spécifiques et de nombreux détails apportés au sujet comme à l’arrière-plan. Elle peut créer des vidéos d’une durée maximale d’une minute tout en maintenant une qualité visuelle et respectant la demande de l’utilisateur. Sora peut également créer une vidéo à partir d’une image fixe ou allonger des vidéos existantes[62],[63].

Microscope[modifier | modifier le code]

Sorti en 2020, Microscope est un outil permettant de visualiser les neurones et couches de certains réseaux de neurones connus. Il est utilisé pour mieux comprendre le fonctionnement interne des réseaux de neurones[64].

Whisper[modifier | modifier le code]

Sorti en 2022, Whisper est un modèle polyvalent et multilingue de reconnaissance vocale. Il peut aussi identifier une langue et même effectuer des traductions, par exemple de vidéos ou films[65].

Controverses[modifier | modifier le code]

Contrat avec Sama[modifier | modifier le code]

Une enquête de l’hebdomadaire Time publiée le 18 janvier 2023 décrit un contrat que OpenAI a passé avec Sama, une entreprise basée à San Francisco qui emploie des travailleurs au Kenya. OpenAI souhaitait entraîner un algorithme d'apprentissage automatique pour filtrer des textes en fonction de leur toxicité, permettant d'épurer les données d'entraînement de modèles de langage comme ChatGPT et les rendant ainsi moins toxiques. Pour entraîner cet algorithme à reconnaître si un texte est toxique ou non, OpenAI avait besoin d'exemples annotés et a fait appel à l'entreprise Sama pour l'annotation. Des employés de celle-ci se sont déclarés psychologiquement marqués par ce travail, les textes décrivant parfois des automutilations, incestes, contenus pédopornographiques ou tortures. Sur une journée de neuf heures, des employés ont déclaré devoir lire entre 150 et 250 textes faisant chacun de 100 à 1 000 mots et y signaler les passages sensibles. Le salaire versé par Sama à ses annotateurs était de 1,32 à 2 dollars de l’heure hors taxe (OpenAI ayant versé à Sama pour la prestation 12,50 dollars par heure de travail)[66],[67].

Activités à but lucratif[modifier | modifier le code]

La création d'une filiale à but lucratif, le partenariat avec Microsoft et l'absence de publication des résultats de recherche et du code source ont été critiqués par certaines personnalités telles qu'Elon Musk, cofondateur d'Open AI, qui y voit une trahison de la mission que s'était fixée l'organisation lors de sa fondation[68],[69]

Bref départ d'Altman et de Brockman[modifier | modifier le code]

Le , Sam Altman est destitué de son poste de directeur de l'information suite à une décision du conseil d'administration, composé de Helen Toner, Ilya Sutskever, Adam D'Angelo et Tasha McCauley, citant un manque de confiance en lui. Mira Murati, directrice de la technologie, assure l'intérim. Greg Brockman, président de OpenAI, est également destitué de son poste de président du conseil d'administration[70],[71]. Peu après cette annonce, Brockman démissionne de la présidence de l'entreprise et rapporte certains détails des événements[72],[73]. Cette situation est suivie par la démission de trois chercheurs seniors de OpenAI : le directeur de recherche et responsable du GPT-4 Jakub Pachocki, le responsable des risques liés à l'IA Aleksander Madry et le chercheur Szymon Sidor[74],[75]. Les journalistes Kara Swisher et Alex Heath indiquent que Ilya Sutskever, leader de l'équipe de recherche de OpenAI, a joué un rôle "déterminant" dans le licenciement d'Altman[76].

Le , des discussions auraient eu lieu concernant le retour d'Altman dans son rôle de directeur de l'information sous la pression des investisseurs tels que Microsoft et Thrive Capital, qui ont condamné le départ d'Altman[77]. Bien qu'Altman lui-même se soit exprimé en faveur de son retour chez OpenAI, il a déclaré envisager de créer une nouvelle entreprise et d'emmener avec lui d'anciens employés de OpenAI si les discussions n'aboutissaient pas[78]. S'il revenait, il a dit que les membres du conseil d'administration démissionneraient "en principe" de l'entreprise[79]. Le , les négociations avec Altman pour revenir à l'entreprise échouent et Murati est remplacée par Emmett Shear pour assurer l'intérim en tant que directeur de l'information[80]. Le conseil d'administration a contacté le PDG d'Anthropic, Dario Amodei, qui était un ancien exécutif chez OpenAI. Le but était de remplacer Sam Altman mais aussi potentiellement de fusionner les deux entreprises, mais Dario Amodei a décliné les deux offres[81].

Le , le PDG de Microsoft, Satya Nadella, annonce que Altman et Brockman rejoindront l'entreprise pour diriger une nouvelle équipe de recherche sur l'IA avancée, et déclarent rester engagés envers OpenAI malgré les événements[82]. Le partenariat n'a pas été certifié alors qu'Altman donne une autre opportunité au conseil d'administration de négocier avec lui[83]. Environ 738 des 770 employés d'OpenAI, y compris Murati et Sutskever, ont signé une lettre ouverte déclarant qu'ils quitteraient leur emploi et rejoindraient Microsoft si le conseil d'administration ne réembauche pas Altman comme PDG puis démissionne[84],[85]. Les investisseurs envisagent d'intenter une action en justice contre les membres du conseil d'administration en réponse aux démissions massives potentielles et au renvoi d'Altman[86]. En réponse, la direction d'OpenAI a envoyé une note interne aux employés indiquant que les négociations avec Altman et le conseil d'administration sont de nouveau en cours et prendront du temps[87].

Le , après des négociations continues, Altman et Brockman reviennent dans l'entreprise comme CEO et President, accompagnés d'un conseil d'administration restructuré composé de nouveaux membres, Bret Taylor (en tant que président) et Lawrence Summers, et d'Adam D'Angelo qui reste[88]. Brockman et Sutskever ne sont plus membres du conseil d'administration.

Notes et références[modifier | modifier le code]

  1. a et b Thomas Pontiroli, « OpenAI, ou l'espoir d'une IA à visage humain », sur Clubic, .
  2. (en) « OpenAI Startup Fund », sur OpenAI (consulté le ).
  3. Thierry Noisette, « Intelligence artificielle: OpenAI est créé par Elon Musk, Peter Thiel, Amazon Web Services et d'autres », sur ZDNet, .
  4. « Elon Musk lance un centre sur l’intelligence artificielle pour « bénéficier à l’humanité » », Le Monde,‎ (lire en ligne, consulté le ).
  5. « OpenAI: Musk veut l’intelligence artificielle au service de tous », sur BFM TV (consulté le ).
  6. (en-US) Cade Metz, « Inside OpenAI, Elon Musk's Wild Plan to Set Artificial Intelligence Free », Wired,‎ (ISSN 1059-1028, lire en ligne, consulté le )
  7. (en) « Introducing OpenAI », sur OpenAI.
  8. Joséphine Boone, « Qui est Open AI, le laboratoire derrière l'intelligence artificielle star ChatGPT ? » Accès limité, sur Les Échos, (consulté le ).
  9. Julien Lausson, « Pourquoi Elon Musk râle contre OpenAI alors qu'il en est le fondateur ? » Accès libre, sur Numerama, (consulté le ).
  10. (en) « OpenAI shifts from nonprofit to ‘capped-profit’ to attract capital », TechCrunch,‎ (lire en ligne).
  11. « OpenAI devient une société à "but lucratif plafonné" pour attirer de nouveaux capitaux », sur Siècle Digital, (consulté le ).
  12. Malagigi Boutot, « OpenAI, une « entreprise à but lucratif plafonné » unique au monde » Accès libre, sur Générations nouvelles, (consulté le ).
  13. François Manens, « Pourquoi Microsoft mise un milliard de dollars sur la pépite OpenAI » Accès libre, sur La Tribune, (consulté le ).
  14. a et b Bastien L, « ChatGPT : qu'est-ce que c'est ? Le guide complet », sur www.lebigdata.fr (consulté le )
  15. José Billon, « OpenAI : tout savoir sur l’entreprise qui a créé ChatGPT et DALL-E », sur BDM, (consulté le )
  16. « ChatGPT : tout savoir sur cette intelligence artificielle qui déchaîne le Web », sur www.lesnumeriques.com, (consulté le )
  17. Raphaële Karayan, « Microsoft réinvestit 10 milliards de dollars dans OpenAI, la start-up derrière ChatGPT », L'usine digitale,‎ (lire en ligne, consulté le )
  18. Jérôme Marin, « Microsoft ajoute un "copilote" basé sur GPT-4 à sa suite bureautique Office 365 », L'usine digitale,‎ (lire en ligne, consulté le )
  19. « OpenAI pourrait bientôt valoir entre 80 et 90 milliards de dollars », sur La Presse, (consulté le )
  20. a et b Par Sabrina Ortiz |, « GPT-4 : tout savoir sur le nouveau chatbot », sur ZDNet France, (consulté le )
  21. a et b (en-US) « Governance of superintelligence », sur openai.com (consulté le )
  22. a et b Decrypt / Jose Antonio Lanz, « OpenAI affirme que l'IA «dépassera le niveau de compétence des experts dans la plupart des domaines» dans 10 ans », sur Decrypt, (consulté le )
  23. (en-US) « Governance of superintelligence », sur openai.com (consulté le ) : « Given the picture as we see it now, it’s conceivable that within the next ten years, AI systems will exceed expert skill level in most domains, and carry out as much productive activity as one of today’s largest corporations.In terms of both potential upsides and downsides, superintelligence will be more powerful than other technologies humanity has had to contend with in the past. We can have a dramatically more prosperous future; but we have to manage risk to get there. »
  24. « OpenAI: le créateur de ChatGPT ouvre un bureau à Dublin », sur France 24, (consulté le ).
  25. (en-US) « OpenAI announces leadership transition », sur openai.com, (consulté le )
  26. (en) « Sam Altman removed as CEO of OpenAI, CTO Mira Murati appointed interim CEO », sur TechRepublic, (consulté le )
  27. (en) Tom Warren, « OpenAI’s new CEO is Twitch co-founder Emmett Shear », sur The Verge, (consulté le )
  28. (en) Tom Warren, « Microsoft hires former OpenAI CEO Sam Altman », sur The Verge, (consulté le )
  29. (en) Kelsey Piper, « Why Elon Musk fears artificial intelligence », sur Vox, (consulté le ).
  30. (en-GB) « Tech giants pledge $1bn for 'altruistic AI' venture, OpenAI », BBC News,‎ (lire en ligne, consulté le ).
  31. (en) « Open AI: Effort to democratize artificial intelligence research? », Christian Science Monitor,‎ (ISSN 0882-7729, lire en ligne, consulté le ).
  32. a et b (en-US) Cade Metz, « Inside OpenAI, Elon Musk's Wild Plan to Set Artificial Intelligence Free », Wired,‎ (ISSN 1059-1028, lire en ligne, consulté le ) :

    « If you have a button that could do bad things to the world, you don't want to give it to everyone. »

  33. (en-US) « Introducing OpenAI », sur openai.com (consulté le ) : « It's hard to fathom how much human-level AI could benefit society, and it's equally hard to imagine how much it could damage society if built or used incorrectly. »
  34. (en) « Tech leaders launch nonprofit to save the world from killer robots », Christian Science Monitor,‎ (ISSN 0882-7729, lire en ligne, consulté le ) :

    « Because of AI's surprising history, it's hard to predict when human-level AI might come within reach. »

  35. (en-GB) « Tech giants pledge $1bn for 'altruistic AI' venture, OpenAI », BBC News,‎ (lire en ligne, consulté le ) :

    « should be an extension of individual human wills and, in the spirit of liberty, as broadly and evenly distributed as is possible safely »

    .
  36. a et b (en-US) Cade Metz, « Elon Musk's Billion-Dollar AI Plan Is About Far More Than Saving the World », Wired,‎ 2015--12-15 (ISSN 1059-1028, lire en ligne, consulté le ).
  37. Vishal Sikka, « OpenAI: AI for All » [archive du ], sur InfyTalk, Infosys, (consulté le ) : « OpenAI aligns very nicely with our long-held values. ».
  38. (en-US) « Silicon Valley investors to bankroll artificial-intelligence center », sur The Seattle Times, (consulté le ) : « What is the best thing we can do to ensure the future is good? We could sit on the sidelines or we can encourage regulatory oversight, or we could participate with the right structure with people who care deeply about developing AI in a way that is safe and is beneficial to humanity. »
  39. (en-US) « Silicon Valley investors to bankroll artificial-intelligence center », sur The Seattle Times, (consulté le ) : « There is always some risk that in actually trying to advance AI we may create the thing we are concerned about ».
  40. (en-US) « Silicon Valley investors to bankroll artificial-intelligence center », sur The Seattle Times, (consulté le ) : « to empower as many people as possible to have AI. If everyone has AI powers, then there's not any one person or a small set of individuals who can have AI superpower. »
  41. (en-US) Condé Nast, « Sam Altman’s Manifest Destiny », sur The New Yorker, (consulté le ).
  42. (en-US) James Vincent, « AI researchers debate the ethics of sharing potentially harmful programs », sur The Verge, (consulté le ) : « The words ‘too dangerous’ were casually thrown out here without a lot of thought or experimentation. I don’t think [OpenAI] spent enough time proving it was actually dangerous. »
  43. (en-US) « Our approach to alignment research », sur openai.com (consulté le ).
  44. (en-US) « Our approach to alignment research », sur openai.com (consulté le ) : « Unaligned AGI could pose substantial risks to humanity and solving the AGI alignment problem could be so difficult that it will require all of humanity to work together. »
  45. Thomas Burgel, « Tester le générateur de texte d'OpenAI est étonnant, drôle et angoissant », sur Korii, Slate, (consulté le ).
  46. (en) « Elon Musk backed AI writes news fiction », The Guardian,‎ (lire en ligne).
  47. « GPT-3 : OpenAI dévoile son impressionnant modèle de traitement de langage naturel », sur Siècle digital, (consulté le ).
  48. Zacharie Tazrout, « Whisper, le système de reconnaissance vocale d'OpenAI, devient open source », sur Siècle Digital, (consulté le ).
  49. Aurore Gayte, « GPT-3 : comment générer du texte grâce à l'intelligence artificielle d'OpenAI », sur Numerama, (consulté le )
  50. (en-US) James Vincent, « OpenAI announces GPT-4 — the next generation of its AI language model », sur The Verge, (consulté le ).
  51. Etudes Tech, « Ce qu'il est possible de faire avec Chat GPT-4 d'Open Ai », sur Études Tech, (consulté le ).
  52. Martin Clavey, « ChatGPT : Open AI rend son bot plus responsable » Accès payant, Next INpact, (consulté le ).
  53. (en) Mike Pearl, « The ChatGPT chatbot from OpenAI is amazing, creative, and totally wrong » Accès libre, Mashable, (consulté le ).
  54. (en) Kevin Roose, « The Brilliance and Weirdness of ChatGPT » Accès payant, The New York Times, (consulté le ).
  55. (en) « Does ChatGPT remember what happened earlier in the conversation? », sur help.openai.com (consulté le ).
  56. (en-US) « ChatGPT plugins », sur openai.com (consulté le ).
  57. (en-US) « Introducing the ChatGPT app for iOS », sur openai.com (consulté le ).
  58. (en-US) « ChatGPT can now see, hear, and speak », sur openai.com (consulté le ).
  59. Valentin Cimino, « DALL-E : l'IA d'OpenAI capable de générer une image à partir d'une phrase », sur Siècle digital, (consulté le ).
  60. Elina S, « DALL-E : la nouvelle IA d’OpenAI crée des images à partir de textes », sur LeBigData.fr, (consulté le )
  61. (en-US) « DALL·E 3 », sur openai.com (consulté le ).
  62. Agence France-Presse, « Sora, le dernier outil vidéo d'OpenAI, inquiète créateurs et médias », sur Journal de Montréal, (consulté le )
  63. Jacaudrey Charbonneau, « Intelligence artificielle : Sora génère des vidéos impressionnantes », sur Radio-Canada, (consulté le )
  64. (en-US) « OpenAI Microscope », sur openai.com (consulté le )
  65. Zacharie Tazrout, « Whisper, le système de reconnaissance vocale d'OpenAI, devient open source », sur Siècle digital, (consulté le ).
  66. « Intelligence artificielle. Au Kenya, l’enfer des petites mains précaires de ChatGPT », sur Courrier international, (consulté le ).
  67. (en) « Exclusive: The $2 Per Hour Workers Who Made ChatGPT Safer », sur Time, (consulté le ).
  68. (en) « OpenAI Is Now Everything It Promised Not to Be: Corporate, Closed-Source, and For-Profit », Vice (consulté le ).
  69. (en-US) James Vincent, « OpenAI co-founder on company’s past approach to openly sharing research: “We were wrong” », sur The Verge, (consulté le ).
  70. (en-US) « OpenAI announces leadership transition » [archive], sur openai.com, (consulté le )
  71. (en) Blake Montgomery et Dani Anguiano, « OpenAI fires co-founder and CEO Sam Altman for allegedly lying to company board » [archive], sur The Guardian, (consulté le )
  72. (en) Jay Peters, « OpenAI co-founder Greg Brockman is leaving, too » [archive], sur The Verge, (consulté le )
  73. « Sam and I are shocked and saddened by what the board did today » [archive], X, (consulté le )
  74. « Three Senior OpenAI Researchers Resign as Crisis Deepens » [archive], sur The Information (consulté le )
  75. (en-US) Benj Edwards, « Details emerge of surprise board coup that ousted CEO Sam Altman at OpenAI » [archive], sur Ars Technica, (consulté le )
  76. (en) Alex Heath, « What happened to Sam Altman? » [archive], sur The Verge, (consulté le )
  77. Keach Hagey Seetharaman, « OpenAI Investors Trying to Get Sam Altman Back as CEO After Sudden Firing » [archive], sur WSJ (consulté le )
  78. Cade Metz, Mike Isaac et Erin Griffith, « Sam Altman Is Said to Be Discussing Return to OpenAI With Company’s Board » [archive], sur The New York Times, (consulté le )
  79. (en) Nilay Patel, « OpenAI board in discussions with Sam Altman to return as CEO » [archive], sur The Verge, (consulté le )
  80. (en) Alex Heath, « The deal to bring Sam Altman back to OpenAI has fallen apart » [archive du ], sur The Verge, (consulté le )
  81. (en) Jeffrey Dastin, « OpenAI's board approached Anthropic CEO about top job and merger », sur Reuters, (consulté le )
  82. (en) Tom Warren, « Microsoft hires former OpenAI CEO Sam Altman » [archive du ], sur The Verge, (consulté le )
  83. (en) Nilay Patel, « Sam Altman is still trying to return as OpenAI CEO » [archive du ], sur The Verge, (consulté le )
  84. (en) « OpenAI Staff Near Total Mutiny With Threat to Jump to Microsoft » [archive du ], sur Bloomberg (consulté le )
  85. Will Knight, « OpenAI Staff Threaten to Quit Unless Board Resigns » [archive du ], sur Wired (consulté le )
  86. (en) Anna Tong, Krystal Hu, Anna Tong et Krystal Hu, « Exclusive: OpenAI investors considering suing the board after CEO's abrupt firing », sur Reuters,
  87. (en) Richard Lawler, « OpenAI exec to employees: “our number one goal remains to reunify OpenAI.” », sur The Verge,
  88. (en) Alex Heath, « Breaking: Sam Altman to return as CEO of OpenAI », sur The Verge, .

Voir aussi[modifier | modifier le code]

Articles connexes[modifier | modifier le code]

Liens externes[modifier | modifier le code]

Sur les autres projets Wikimedia :