AI tools

Tutoriel sur la diffusion stable : Prototypage avec l'interface Web

A detailed view of the Stable Diffusion Web UI showcasing its features.

Qu'est-ce que la diffusion stable ?

La diffusion stable est un modèle de diffusion révolutionnaire en apprentissage profond, texte-à-image, introduit en 2022. Cette technologie innovante est principalement conçue pour générer des images à partir de descriptions textuelles, permettant aux utilisateurs de transformer leurs idées écrites en représentations visuelles vivantes. Au-delà de la génération d'images, la diffusion stable prend également en charge diverses tâches, notamment l'inpainting, l'outpainting et la traduction image-à-image guidée par des invites textuelles, ce qui en fait un outil polyvalent dans le monde de l'intelligence artificielle.

Comment utiliser l'interface Web de la diffusion stable localement

Pour ceux qui souhaitent tester le modèle localement, l'utilisateur GitHub AUTOMATIC1111 a développé une interface Web de diffusion stable qui permet aux utilisateurs de réaliser des expériences dans un environnement convivial. Cette interface Web est construite en utilisant Gradio, une bibliothèque Python qui facilite la création de composants d'interface utilisateur.

Fonctionnalités de l'interface Web

  • Modes originaux txt2img et img2img
  • Installation et exécution par un clic (requiert l'installation de Python et Git)
  • Outpainting
  • Inpainting
  • Esquisse de couleur
  • Matrice d'invite
  • Upscaling de diffusion stable
  • Capacité à spécifier des parties de texte sur lesquelles le modèle doit se concentrer
  • Onglet Extras incluant :
    • GFPGAN : Réseau de neurones de restauration faciale
    • CodeFormer : Un outil alternatif de restauration faciale
    • RealESRGAN : Réseau de neurones pour l'upscaling
    • ESRGAN : Options avancées d'upscaling
    • SwinIR et Swin2SR : Upscalers avancés
    • LDSR : Super-résolution par diffusion latente
  • Différentes options de ratio d'aspect de redimensionnement
  • Bouton Artiste aléatoire : Génère des images dans le style d'artistes aléatoires
  • Styles : Enregistrer et appliquer des parties d'invites facilement
  • Variations : Générer des images similaires avec de légères différences

Comment utiliser l'interface Web

Pour les utilisateurs de Windows

  1. Téléchargez et installez Python 3.10.6, en vous assurant de cocher "Ajouter Python au PATH" lors de l'installation.
  2. Installez Git.
  3. Clonez le dépôt en exécutant la commande : git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git.
  4. Placez model.ckpt dans le répertoire models (reportez-vous aux dépendances pour la source du modèle).
  5. (Optionnel) Placez GFPGANv1.4.pth dans le répertoire de base à côté de webui.py.
  6. Exécutez webui-user.bat depuis l'explorateur Windows en tant qu'utilisateur normal (non administrateur).

Pour les utilisateurs de Linux

Pour installer dans /home/$(whoami)/stable-diffusion-webui/, utilisez les commandes appropriées pour votre distribution pour gérer les dépendances.

Pour les utilisateurs d'Apple Silicon

Les instructions et détails de compatibilité peuvent être trouvés dans les liens de documentation officielle fournis sur le dépôt GitHub.

Ressources supplémentaires

Pour des invites optimisées et maximiser les résultats avec la diffusion stable, il est fortement recommandé de lire notre Guide des invites de diffusion stable. Si vous êtes intéressé à développer vos propres outils basés sur la diffusion stable, envisagez de participer à notre Hackathon AI de diffusion stable !

Restez informé des dernières tendances en génération d'images AI en suivant les discussions et publications liées dans le domaine.

En lire plus

A visual guide to using Lexica, the Stable Diffusion AI image search engine for art.
Creating a Disney Pixar style avatar using Stable Diffusion tutorial

Laisser un commentaire

Tous les commentaires sont modérés avant d'être publiés.

Ce site est protégé par hCaptcha, et la Politique de confidentialité et les Conditions de service de hCaptcha s’appliquent.