Aller au contenu

Discussion:DALL-E

Le contenu de la page n’est pas pris en charge dans d’autres langues.
Une page de Wikipédia, l'encyclopédie libre.
Autres discussions [liste]
  • Admissibilité
  • Neutralité
  • Droit d'auteur
  • Article de qualité
  • Bon article
  • Lumière sur
  • À faire
  • Archives
  • Commons

L'attribution d'un caractère anthropomorphique au logiciel.[modifier le code]

L'article en l'état, présente le logiciel comme un être à part entière plutôt que comme un outil.

Les tournures de phrase et le vocabulaire témoignent de cela : "Image générée par DALL-E" "DALL-E est capable" "DALL-E a appris à « remplir les blancs » " "Il peut également « manipuler et réorganiser » des objets " ...

Je propose, par exemple, de récrire par : "Image générée avec DALL-E" "Avec DALL-E, il est possible de " "DALL-E a été entrainé à « remplir les blancs » " "Nous pouvons également « manipuler et réorganiser » des objets "

Cette distinction est importante car le statut qui est donné à ce type de logiciel peut nuire à l'image que les humains se font d'eux-même et peut participer au développement de courants sectaires sur l'adoration de ces technologies.

(exemple : https://www.wired.com/story/anthony-levandowski-artificial-intelligence-religion/) DDiederichsen (discuter) 30 décembre 2022 à 21:46 (CET)[répondre]

À ce stade de développement de ces logiciels, il est fréquent de les voir utilisés pour illustrer un texte non manipulé par l’utilisateur (y compris un texte produit par GPT-3). De plus, ce type de vocabulaire est depuis longtemps classique : il ne viendrait à personne l’idée d’écrire, concernant AlphaGo, que c’est DeepMind qui a montré dans la troisième partie contre Lee Sedol qu’il « était tout simplement plus fort que tous les joueurs humains connus ». Bref, ce désir bien connu des détracteurs de l’IA d’expliquer que tout cela ne prouve rien et qu’il ne faut surtout pas « nuire à l’image des humains » demande au minimum de s’appuyer sur des sources. Dfeldmann (discuter) 31 décembre 2022 à 00:00 (CET)[répondre]

L'ajout d'une section sur les problèmes des ensembles de données.[modifier le code]

Je propose l'ajout du paragraphe suivant :

Les logiciels de génération d'images sont entrainés sur des ensembles de données se composant d'images comprenant des photographies, des peintures, des dessins, des logos et tout autre élément avec une représentation graphique provenant d'Internet. Certains artistes accuse que ces logiciels (et la commercialisation qui les accompagne) sont construits sur le dos d'artistes, de photographes et de designers humains, qui ne voient aucun avantage à ces modèles commerciaux, comparant cela à un « vol » ou une « exploitation ». L'usage de ces images dans les ensembles de données sont utilisés sans le consentement de leurs créateurs.

(https://www.technollama.co.uk/copyright-infringement-in-artificial-intelligence-art) DDiederichsen (discuter) 30 décembre 2022 à 21:53 (CET)[répondre]

Sur ce second point, il y a là clairement une non compréhension du fonctionnement de ces modèles, certes entraînés sur des images (pas même nécessairement dans le domaine public), mais utilisant une technique dont l’analogue humain est essentiellement que l’imagination de l’artiste se nourrit des images et des œuvres d’art qu’il a vu, mais crée ensuite le plus souvent sans copier ou plagier. De fait, il n’y a aucun sens à tenter d’accuser DALL-E de plagiat, puisqu’il part de taches aléatoires qu’il manipule pour tenter de faire ressembler le résultat au texte soumis. Dfeldmann (discuter) 31 décembre 2022 à 00:10 (CET)[répondre]