Stable Diffusion

Un article de Wikipédia, l'encyclopédie libre.

Stable Diffusion

Description de l'image A photograph of an astronaut riding a horse 2022-08-28.png.
Informations
Première version Voir et modifier les données sur Wikidata
Dernière version 2[1]Voir et modifier les données sur Wikidata
Dépôt github.com/CompVis/stable-diffusion et github.com/Stability-AI/stablediffusionVoir et modifier les données sur Wikidata
Écrit en PythonVoir et modifier les données sur Wikidata
Type Image model (d)
Text-to-image model (en)
Latent variable model (en)
Diffusion model (en)Voir et modifier les données sur Wikidata
Licence CreativeML Open RAIL-M (d)Voir et modifier les données sur Wikidata
Site web stability.ai/blog/stable-diffusion-public-releaseVoir et modifier les données sur Wikidata

Stable Diffusion est un modèle d'apprentissage automatique permettant de générer des images numériques photoréalistes à partir de descriptions en langage naturel. Le modèle peut également être utilisé pour d'autres tâches, comme la génération d'une image améliorée à partir d'une esquisse et d'une description textuelle[2].

Il peut fonctionner sur la plupart des matériels grand public équipés d'une carte graphique même de moyenne gamme et est salué par PC World comme « la prochaine application phare pour votre ordinateur[3] ».

Licence[modifier | modifier le code]

Contrairement aux modèles concurrents comme DALL-E, le code source de Stable Diffusion est public. Ceci a suscité deux types de critiques : celles qui auraient préféré l'usage d'une licence authentiquement libre, et celles déplorant purement et simplement qu'une telle publication ait lieu.

Malgré la publication de son code source, Stable Diffusion n'est pas un logiciel libre[4], car sa licence, dite CreativeML Open RAIL M License, interdit certains cas d'utilisation, ce qui est contraire à un principe de base de la fondation pour le logiciel libre, Free Software Foundation[5],[6],[7].

Les critiques déplorant la publication du code source peuvent en général être liées aux inquiétudes concernant l'éthique de l'intelligence artificielle. Elles s'appuient sur l'hypothèse que le modèle peut être utilisé pour créer des deepfake[8] et remettent également en question la légalité de la génération d'images avec un modèle formé sur un ensemble de données contenant du contenu protégé par le droit d'auteur sans le consentement des artistes originaux[9].

Entraînement[modifier | modifier le code]

Stable Diffusion est formé sur un sous-ensemble de l'ensemble de données LAION-Aesthetics V2[10]. Il est construit sur 256 GPU Nvidia A100 pour un coût de 600 000 $[11].

Notes et références[modifier | modifier le code]

  1. (en) « Stable Diffusion 2.0 Release »,
  2. (en) « Diffuse The Rest - a Hugging Face Space by huggingface », huggingface.co (consulté le ).
  3. (en) Mark Hachman, « The new killer app: Creating AI art will absolutely crush your PC », PCWorld date=2022-08-26 (consulté le ).
  4. (en) Emad Mostaque (en), « Stable Diffusion Public Release », Stability.Ai, (consulté le ).
  5. (en) Richard Stallman, « Why programs must not limit the freedom to run them », sur gnu.org, .
  6. « Ready or not, mass video deepfakes are coming », The Washington Post, (consulté le ).
  7. (en) « License - a Hugging Face Space by CompVis », huggingface.co, (consulté le ).
  8. (en) « Deepfakes for all: Uncensored AI art model prompts ethics questions », TechCrunch, (consulté le ).
  9. (en) Luke Plunkett, « AI Creating 'Art' Is An Ethical And Copyright Nightmare », Kotaku, (consulté le ).
  10. (en) « LAION-Aesthetics | LAION », laion.ai (en) (consulté le ).
  11. (en) Emad Mostaque (en), « Cost of construction », Twitter, (consulté le ).

Voir également[modifier | modifier le code]

Liens externes[modifier | modifier le code]