Utiliser SDXL avec Automatic1111

Comment installer et utiliser SDXL avec le WebUI ?

Utiliser SDXL avec Automatic1111
Do not index
Do not index
mydate
Stable Diffusion WebUI, également connu sous le nom AUTOMATIC1111 ou A1111 en abrégé, est l'interface graphique (GUI) par défaut pour de nombreux utilisateurs avancés de Stable Diffusion.
Grâce à une communauté passionnée, la plupart des nouvelles fonctionnalités y sont rapidement ajoutées. C’est donc sans surprise qu’à peine quelques jours après la sortie sa sortie, une mise à jour a permi d’utiliser le nouveau Stable Diffusion XL (SDXL) dans Automatic1111.
Voyons ensemble comment profiter de cette mise à jours pour générer des images avec la version 1.0 du modèle SDXL.
🎓
Consultez également notre Manuel complet pour Automatic1111 en français pour apprendre comment fonctionne cette interface graphique.

Pré-requis

Il faut évidemment avoir installé AUTOMATIC1111 - Il fonctionne sur Windows 10 et 11 (avec un GPU) et peut également être utilisé sur Mac avec les puces M1 ou M2 même si c’’est moins confortable. Pour cela, vous pouvez suivre nos tutoriel pour Windows et pour Mac.
⚠️
Installer Stable Diffusion demande une machine puissante
Un GPU de 8Go est donc recommandé pour utiliser Stable Diffusion. Et une utilisation confortable demande généralement plus de puissance.
Si vous ne disposez pas d’une machine suffisamment puissante, une bonne alternative est de passer par une solution sur le cloud.
Si vous aviez déjà installé le WebUI avant la sortie de SDXL 1.0 et que votre installation date donc d’avant la version 1.5.0 du 24 Juillet 2023, vous devez le mettre à jour.
La mise à jours se fait en ligne de commande : dans le repertoire d’installation (\stable-diffusion-webui) executer la commande git pull - la mise à jours s’effectue alors en quelques secondes.
notion image

Ajouter SDXL 1.0 à Automatic1111

Sur Mac comme sur Windows, l’ajout du modèle se fait en téléchargeant ses fichiers et en les ajoutant à votre installation d’Automatic1111 :
  1. Téléchargez le modèle de base et le Refiner (liens ci-dessous)
  1. Placez les deux fichiers dans le repertoire /stable-diffusion-webui/models/Stable-diffusion de votre installation.
  1. Lancez le WebUI ou, si il est déjà ouvert, cliquez sur l’icône refresh 🔃 de la liste des modèles.
  1. Vous pouvez maintenant sélectionner les modèles (sd_xl_base et sd_xl_refiner).
    1. notion image
🔽
Liens de téléchargement SDXL :
Plutôt que les modèles de base partagés par Stability AI, l’équipe d’Automatic1111 recommande spécifiquement ces modèles pour la génération, la fusion et l'entraînement avec le WebUI :

Comment utiliser SDXL ?

Utiliser le modèle SDXL de base en txt2img

Le modèle de base SDXL s’utiliser comme n’importe quel autre modèle pour la génération en txt2img :
  1. Sélectionnez le modèle de base SDXL 1.0 dans le menu déroulant Stable Diffusion Checkpoint.
  1. Entrez votre prompt et, éventuellement, un prompt négatif.
  1. Réglez la taille de l'image sur 1024×1024, ou des valeur proche de 1024 pour des rapports différents.
  1. Lancez la génération d’image avec le bouton Generate
😎
Exemple de génération avec SDXL
notion image
Prompt : A hyper - realistic GoPro selfie of a smiling glamorous Influencer with a t-rex Dinosaurus. Extreme environment.
Negative Prompt: sketch, ugly, blur, text, logo, monochrome, bad art, cut off, low contrast, underexposed, overexposed, beginner, amateur
Width: 1024, Height: 1024, CFG Scale: 7, Steps: 20, Sampling Method : Euler A

Appliquer directement Refiner en text2img

Stable Diffusion XL vient avec un second modèle, le Refiner, en complément du modèle de base. Ce modèle peut être utilisé pour améliorer une image et y ajouter des détails.
La version 1.5.1 d’Automatic1111 ne permetait pas d’utiliser directement le Refiner en complément du modèle de base en text2img. C’est désormais possible depuis la sortie de la version 1.6.0. Voici comment l’utiliser :
  1. Cliquez sur l’élément Refiner à droite, sous le sélecteur de Sampling Method. L’interface de configuration du Refiner apparait.
  1. Choisissez le checkpoint du Refiner (sd_xl_refiner_…) dans le sélecteur qui vient d’apparaitre.
  1. Définissez à partir de quel moment le Refiner va intervenir. A 0.8, pour une génération en 20 steps, les 16 premiers steps seront fait avec le checkpoint choisis et les 4 dernier avec le Refiner. - 0.8 est bon choix pour commencer mais vous pouvez expérimenter en changeant cette valeur.
notion image
Note : Il était également possible d’utiliser le Refiner de manière presque similaire avec la version 1.5.1 et l’extension sd-webui-refiner :
Installer et utiliser sd-webui-refiner

Installer sd-webui-refiner

L’extension pour le Refiner est simple à installer. Une fois le WebUI lancé, suivez les étapes suivantes :
Ouvrez l’onglet extensions (1) et choisissez Available (2). Cliquez sur le bouton Load from (3) en laissant l’URL par défaut.
notion image
Dans la liste des extensions, trouvez “Refiner” et cliquez sur le bouton Install (4) correspondant.
notion image
Passez dans Installed (5) pour vérifier que l’extension sd-webui-refiner est bien dans la liste des extensions installées et cliquez sur le bouton Apply and restart UI (6).
notion image
L’extension est maintenant prête à être utilisée.

Utiliser le Refiner avec l’extension

Maintenant que l’extension est installée, une option Refiner est disponible sous les options de configurations en img2img. Cliquez dessus pour afficher les réglages du Refiner et configurez-le comme suite :
  • Cochez Enable Refiner pour appliquer le Refiner
  • Choisissez le modèle sd_xl_refiner_1.0.safetensor
  • Laissez le pourcentage à 20 (valeur recommandée)
Générez une image comme expliqué plus haut : Le Refiner sera automatiquement utilisé pour les derniers steps de la génération (selon le pourcentage définis).
 
😎
Exemple de génération avec SDXL et le Refiner
notion image
Prompt : A hyper - realistic GoPro selfie of a smiling glamorous Influencer with a t-rex Dinosaurus. Extreme environment.
Negative Prompt: sketch, ugly, blur, text, logo, monochrome, bad art, cut off, low contrast, underexposed, overexposed, beginner, amateur
Width: 1024, Height: 1024, CFG Scale: 7, Steps: 25, Sampling Method : Euler A
Pour en savoir plus sur l’utilisation de l’extension Refiner, consultez également cette vidéo Youtube (en anglais).

Appliquer le Refiner en img2img

Vous pouvez également utiliser le Refiner en img2img pour améliorer une image que vous venez de générer (sans le Refiner). Voici comment faire :
  1. Sélectionnez votre image et cliquez sur le bouton Send to img2img
    1. notion image
  1. Sélectionnez le Refiner (sd_xl_refiner_1.0.safetensor) dans dans le menu déroulant Stable Diffusion Checkpoint
  1. Régler la denoising strength entre 0.1 et 0.3 (plus la valeur est élevée, plus le Refiner va ajouter des détails)
    1. notion image
  1. Ne changez pas les prompts (positif et négatif), et cliquez sur le bouton Generate. L’image va être régénérée avec le Refiner qui va ajouter des détails et améliorer le rendu.
L’image de départ, avec le Refiner appliqué.
L’image de départ, avec le Refiner appliqué.
N’hésitez pas à tester plusieurs génération en variant la denoising strength pour varier l’intensité du Refiner et voir quel résultat vous convient le mieux.

Utiliser les styles prédéfinis

Sur Discord, ClipDrop et dans DreamStudio, Stability.AI propose des styles prédéfinis à utiliser pour la génération d’image. Ils permettent d’obtenir facilement des images dans différents styles : Photos, Anime, Cinéma, Origami,…
Ces styles prédéfinis fonctionnent en fait en ajoutant des mots clefs aux prompts - et vous pouvez les appliquer facilement à l’aide de l’extension StyleSelectorXL.
Depuis ses dernières mises à jour, cette extension propose même des styles supplémentaires comme Street Fighter, Silouhette ou Film Noir.

Installer StyleSelectorXL

Comme les autrex extensions, StyleSelectorXL peut s’installer facilement, directement depuis l’interface.
Ouvrez l’onglet extensions (1) et choisissez Available (2). Cliquez sur le bouton Load from (3) en laissant l’URL par défaut.
notion image
Cherchez dans la liste des extensions qui s’affichent et trouvez “Style Selector for SDXL” puis cliquez sur le bouton Install (4).
notion image
Passez dans Installed (5) pour vérifier que l’extension StyleSelectorXL est bien dans la liste des extensions installées et cliquez sur le bouton Apply and restart UI (6).
notion image
L’extension est maintenant prête à être utilisée.

Utiliser StyleSelectorXL

Une fenêtre SDXL Styles est maintenant disponible sous la configuration de la génération img2img. Cochez la case Enable Style Selector pour activer l’extension et choisissez un style autre que “base” parmi les styles proposés. Vous pouvez maintenant générés votre image.
notion image
Quelques exemples d’image générées à partir d’un prompt simple (”a t-rex Dinosaurus. Extreme environment.”) dans différents styles :
Anime
Anime
Stained Glass
Stained Glass
Retro Arcade
Retro Arcade
Disco
Disco
Grunge
Grunge
Film Noir
Film Noir

Aller plus loin avec SDXL et Automatic1111

Les mise à jour récente et les extensions pour l’interface d’Automatic1111 rendent l’utilisation de Stable Diffusion XL aussi simple et fluide qu’avec les version 1.5 et 2.1 - Avec un meilleur rendu et la possibilité de générer des images en haute résolution (1024).
Malgré les avancés techniques, SDXL reste proche des anciens modèles dans sa compréhension des demandes et vous pouvez donc utiliser a peu près les mêmes prompts. Au besoin, vous pouvez cherchez l’inspirations dans nos tutoriels de Prompt engineering - Par exemple en utilisant ChatGPT pour vous aider à créer des portraits avec SDXL.
Avant de vous jeter à l’eau et de générer vos premières images, jetez également un oeil à ces prompts inspirants pour SDXL et notre compte X Twitter sur lequel nous partageons régulièrement de nouvelles prompts et astuces (n’hésitez pas aussi à nous y partager vos créations).

Lectures et liens utiles

 

Découvrez et profitez des meilleurs offres Black Friday sur l'IA générative !

🤑 Black Friday

Voir les offres

Ecrit par