Automatic1111, le manuel complet

Apprenez à utiliser l’interface graphique Stable Diffusion la plus populaire

Automatic1111, le manuel complet
Do not index
Do not index
Publish
Publish
Stable Diffusion web UI, plus connue sous le nom de AUTOMATIC1111 ou simplement A1111, est l'interface graphique de prédilection pour les utilisateurs confirmés de Stable Diffusion.
C'est d'ailleurs sur cette plateforme que les nouveautés sont généralement ajoutées en premier, grâce à l'implication sans faille de la communauté open source qui se trouve derrière ce projet.
Mais pour un débutant, AUTOMATIC1111 n'est pas toujours des plus aisés à utiliser. Sa documentation n’est disponible qu’en anglais et laisse parfois à désirer. Et la multitude de fonctionnalités proposées dans l’interface peut facilement la rendre déroutante.
Ce guide a pour vocation de vous aider à maîtriser l'interface graphique d'AUTOMATIC1111. Il est conçu pour servir de tutoriel, avec de nombreux exemples pour illustrer l’utilité ou le fonctionnement d’un paramètre.
N'hésitez pas à le bookmarquer pour le consulter également comme un manuel de référence. Feuilletez-le, découvrez ce qu'il a à offrir et revenez-y dès que vous en aurez besoin pour exploiter une fonctionnalité spécifique.
📌
Si vous connaissez déjà l’interface Automatic1111 et souhaitez surtout apprendre comment l’utiliser avec la dernière version de Stable Diffusion, vous pouvez également consulter notre article sur Stable Diffusion XL dans Automatic1111

Télécharger et installer Automatic1111

Tout comme Stable Diffusion lui-même, l’interface d’Automatic1111 est distribuée en Open Source et partagée gratuitement. L’application est disponible sur github AUTOMATIC1111/stable-diffusion-webui et peut être installé sur Windows, Mac ou même sur des machines virtuelles comme les notebook de Google Colab. Suivez nos tutoriels d’installation selon vos besoins :
Alternativement, vous pouvez aussi utiliser des versions hébergées de Stable Diffusion avec de l’interface web d’Automatic. GRAVITY Diffus et RunDiffusion sont deux solutions populaires de ce type.
notion image
L'interface d'Automatic1111 est votre porte d'entrée vers la création artistique avec l'IA. Bien qu'au premier abord, la multitude d'onglets et d'options puisse paraitre intimidante, vous découvrirez rapidement que chaque élément a été pensé pour fluidifier et enrichir votre expérience créative grâce à l'intelligence artificielle.

1️⃣ L’onglet text-to-image

L’onglet txt2img (abréviation de l’anglais text-to-image qu’on pourrait traduire par texte-en-image) est le point d’entrée de l’interface et votre point de départ pour la génération d’images avec Stable Diffusion. C’est en effet ici que vous pouvez transformer une description textuelle, le prompt en une image visuellement complexe.
Dès l’ouverture de l’interface, vous êtes donc accueilli par cet onglet :
notion image
Vous pouvez y sélectionnez un modèle Stable Diffusion (checkpoint), qui agit comme le “cerveau” de l’IA, et qui est stocké dans le dossier models/Stable-Diffusion de votre installation. Si vous ajoutez un nouveau modèle à ce dossier, une simple pression sur le bouton refresh à côté du menu déroulant actualise la liste des modèles disponibles.
Le prompt est la description de l’image que vous désirez générer. Par exemple, la description ‘une peinture surréaliste d’un chat par Salvador Dali’ peut être utilisée comme prompt, et l’IA se chargera de créer une image basée sur cette description. Vous pouvez également spécifiez la largeur et la hauteur de l’image, ainsi que le nombre d’images à générer.
Nous allons maintenant explorer en détail chaque aspect de cet onglet text-to-image, y compris les paramètres de génération d’images, les options de prompt, et les fonctionnalités supplémentaires.
Même si l’interface a été conçue pour être aussi intuitive que possible, l’utilisation de l’onglet text-to-image nécessite une certaine compréhension des concepts techniques de l’IA et de la génération d’images. Nous essayerons de vous expliquez ces concept en même temps que l’utilisation d’Automatic1111.

Utilisation de base

L’onglet text-to-image d’Automatic1111 offre une variété d’options à ajuster pour créer des images à partir d’un texte. Chacune de ces options joue un rôle spécifique dans la façon dont l’image est générée. Explorons d’abord les options principales dont vous aurez besoin pour générer votre première image.

Stable Diffusion Checkpoint

Située tout en haut à gauche de l’écran, L’option Stable Diffusion Checkpoint vous permet de sélectionner le modèle que vous souhaitez utiliser pour la génération d’images. Il s’agit essentiellement de la “base de données” et du “cerveau” de l’IA. Différents modèles produiront des images différemment et connaîtront différentes choses. Si vous ajoutez un nouveau modèle et ne le voyez pas dans la liste déroulante, vous pouvez utiliser le bouton refresh pour rafraîchir la liste.
notion image
📌
Découverte des modèles Stable Diffusion : qu’est-ce que c’est ? comment les utiliser ? où en trouver ? …

Rédaction des prompts

La rédaction des prompts, à la fois positifs et négatifs, est une étape cruciale du processus de génération d’images.
Prompt : Le champ Prompt est l’espace d'expression pour vos idées. C'est ici que vous décrivez de l'image que vous souhaitez créer. L'algorithme de Stable Diffusion utilise cette description pour, grâce à ses capacités avancées d'apprentissage et de reconnaissance de motifs, tenter de produire une image fidèle à votre description.
Negative Prompt : Le champs Negative Prompt est un outil complémentaire qui affine le processus de génération de votre image. Ici, vous pouvez préciser ce que vous ne souhaitez absolument pas voir apparaître dans votre image. Cela offre un contrôle et une précision accrus sur le résultat, vous permettant d'éviter les éléments indésirables dans l'image produite.
Vous pouvez écrire vos prompts en anglais naturel ou les rédiger comme une liste de tags. L’ordre des mots dans votre prompt est important car les mots placés en premier sont automatiquement plus accentués. Vous pouvez également augmenter l’emphase sur certains mots ou phrases en les plaçant entre parenthèses, ou la diminuer en les mettant entre crochets.
notion image
📌
Pour en apprendre plus sur la rédaction de prompt, consultez nos articles sur le Prompt Engineering

Taille des images

La taille des images générées, contrôlée par les paramètres width (largeur) et height (hauteur), a un impact significatif sur le résultat final.
Certaines dimensions d’images donnent des meilleurs résultats que d’autres car elles sont plus proches des dimensions des images utilisées pour l’entrainement des modèles : 512x512 pour la version 1.5, 768x768 pour la 2.1 et 1024x1024 pour SDXL. (→ voir tous les formats d’images recommandés pour SDXL)
Une taille d’image plus grande nécessite également plus de mémoire VRAM.
La double flêche ⇅ inverse la valeur de manière à changer l’orientation de l’image (paysage/horizontal ou portait/vertical)
notion image

Batch size et Batch count

L’option Batch size détermine le nombre d’images à générer à chaque fois. Une valeur plus élevée permet de générer plusieurs images à la fois, ce qui peut être utile pour tester différents prompts ou paramètres. Cependant, gardez à l’esprit que l’augmentation de la taille du lot peut augmenter la consommation de VRAM.
Le Batch count, quant à lui, détermine le nombre de fois que vous exécutez le processus complet de génération d’images.
Généralement, vous voudrez modifier la taille du lot car c’est plus rapide. Vous ne devriez avoir à utiliser le Batch count que si vous rencontrez des problèmes de mémoire.
Après avoir configurés ces premières options et rédigez votre prompt cliquez sur le bouton Generate : Après un court délai, votre image sera prête (ou vos images si vous avez augmentez le lot) ! Une barre de progression vous permet de suivre sa génération et Automatic1111 affichera également les rendus intermédiaires.
notion image
Lorsque le lot contient plusieurs images, vous obtiendrez également une image supplémentaire de vignettes composites.
Pour sauvegarder une image sur votre stockage local, sélectionnez d’abord l’image en cliquant sur sa vignettes dans le cadre de droite. Puis cliquez sur le bouton 💾 Save.
Vous pouvez également cliquez avec le bouton droit sur l’image pour afficher le menu contextuel qui permet de sauvegarder ou copier l’image.
 
notion image
Toutes les images créées avec Automatic1111 sont également enregistrée automatiquement sur votre disque dur dans le repertoire /output de votre installation.
Les répertoires et images créés automatiquement dans /outputs par Automatic1111
Les répertoires et images créés automatiquement dans /outputs par Automatic1111

Paramètres de génération d’images

De nombreux autres paramètres sont disponibles dans l’onglet txt2img - Voyons ensemble à quoi ils correspondent et comment les utiliser.
notion image

1. Sampling Steps

L’option Sampling Steps est cruciale pour déterminer le degré d’effort que l’IA mettra dans la création de l’image. Chaque “step” (étape) correspond à une passe ou un “brouillon” que l’IA réalise pour améliorer progressivement l’image en fonction de votre prompt. Un nombre trop bas de “steps” donnera une image floue, tandis qu’un nombre trop élevé peut ne pas apporter beaucoup d’amélioration et augmentera le temps de génération de l’image. Un bon point de départ est généralement de 20 steps.

2. Sampling Method

Le Sampling Method détermine essentiellement l’algorithme utilisé par l’IA pour créer l’image. Différentes méthodes peuvent produire des images cohérentes avec un nombre différent de steps, et elles le font différemment. Les méthodes Euler A, LMS, ou DPM++ 2M Karras sont souvent de bons choix.
A venir : Un article explicatif sur ces Methodes - Inscrivez vous à la newsletter pour être avertis de sa sortie.

3. CFG Scale

Le CFG Scale est un paramètre qui contrôle l’équilibre entre la “créativité “de l’IA et le respect de votre prompt.
Un CFG bas permet à l’IA d’ignorer votre prompt et de créer ce qu’elle veut, tandis qu’un CFG élevé lui indique de suivre vos instructions de manière plus stricte. Un CFG de 7 ou 8 est généralement un bon point de départ.
📌
Pour mieux comprendre ce paramètre et comment l’utiliser pour générer vos images, consultez notre guide du CFG Scale.

4. Seed

Le Seed est une valeur unique qui détermine le contenu de l’image générée. Si vous laissez cette valeur à -1, ce qui signifie “seed aléatoire”, vous obtiendrez une nouvelle image différente à chaque fois - mais si vous utilisez une valeur fixe et que vous utilisez exactement les mêmes paramètres, vous obtiendrez la même image.
Utiliser un seed fixe permet de tester l’influence d’un mot clef dans le prompt ou d’un autre réglage en comparant les images.
Le bouton Recycler ♻️ à droite du champ Seed permet de récupérer automatiquement celui de la dernière image générée.
Vous pouvez également trouver le seed d’une image générée dans les meta-informations de génération reprises sous l’image lorsque vous la sélectionnez dans la partie droite de l’écran :
notion image

5. Options supplémentaires de Seed

Il existe des options supplémentaires pour le Seed, comme le Variation seed et le Variation strength. Le premier est une valeur de seed supplémentaire que vous pouvez utiliser, tandis que le Variation strength détermine le degré d’interpolation entre la seed et la variation seed. Ensemble, ces options permettent de créer des variations proches d’une image de départ.
L’option Resize seed from width/heigh est utile lorsque vous souhaitez redimensionner votre image sans changer son contenu. Cette option tente de maintenir le contenu de l’image lors du redimensionnement. Vous devez entrer la nouvelle taille dans les options principales de largeur et de hauteur, et la largeur et la hauteur de l’image originale dans les Resize seed from correspondants. Ensuite, indiquez le Seed originale dans le champs et réglez le Variation strength à 0.

Fonctionnalités supplémentaires

Dans cette partie, nous allons explorer les options avancées disponibles par défaut dans l’onglet txt2img. Ces deux options sont r situées sous le choix de la Sampling Method et le curseur de Sampling steps :
notion image

Hires. Fix - Haute résolution

Cette option applique un upscaling automatique sur l’image générée. C’est une technique utilisée pour augmenter la résolution d’une image sans sacrifier sa qualité de l’image.
C’est une option particulièrement importante avec le modèles issus de Stable Diffusion 1.5 car ils sont optimisé pour des images de faibles résolution (512x512). En activant le Hires. Fix, vous pouvez augmentez la résolution finale à l’aide de différents paramètres. En laissant les valeurs par défaut, vous doublerez les dimensions de l’image.
notion image
A venir : Le tutoriel complet sur l’Upscaling - Inscrivez vous à la newsletter pour être avertis de sa sortie.

Refiner

Cette fonctionnalité permet d’utiliser un second checkpoint qui va prendre la place de celui choisis comme Stable Diffusion Checkpoint à la fin de la génération d’image.
notion image
C’est une fonctionnalité essentiellement utile pour l’utilisation du modèle complémentaire SDXL Refiner qui est conçu pour améliorer les images générées avec le modèle de base SDXL avec plus de détails fins.
Pour l’utilisez, choisissez un checkpoint (à priori, le sd_xl_refiner) et choisissez le moment où il doit prendre la place du checkpoint principal. Ce moment est exprimé en % du nombre de steps définis pour la génétation. La valeur par défaut de 0,8 signifie que pour une génération avec 30 steps, le checkpoint Refiner prendra sera utilisé pour les 6 dernier (30 - (0,8x30) = 30 - 24 = 6)

Les Boutons

Il y a plusieurs boutons en haut à droite de l’interface. Le principal est évidemment le bouton Generate qui lance la génération d’image(s) - mais les autres boutons sont aussi intéressent et utiles à connaitre.

↙️ Lecture des paramètres

Le bouton “Read the parameters” remplira tous les champs et configurera les paramètres de génération à partir ceux d’une image déjà générée (y compris le Seed).
Il peut s’utiliser de deux manière différentes :
  • Lorsque le champ prompt est vide, il utilise les paramètres de la dernière génération effectuée.
  • Lorsque le champ prompt est complété, il l’interprète et applique les paramètres. Cette option permet par exemple de d’utiliser tous les paramètres d’une image sur Civitai.com avec le bouton “Copy Generation Data”. Elle permet aussi de récupérer les paramètres d’une image générée avec Automatic1111 en la faisant cliquer-glisser dans le champs prompt - ce qui le remplit avec les données de l’image.

🗑️ Corbeille

Ce bouton permet tout simplement de supprimer le prompt actuel et le prompt négatif en un clique.
Notez qu’il ne remet pas à 0 et ne supprime pas les autres paramètres.

Interrupt et Skip

Ces boutons remplacent le bouton Generate pendant la génération d’une image.
Interrupt interrompt tout la procédure de de génération et retourne juste les images déjà générées.
Skip interrompt juste la génération de l’image en cours et continue la suite du lot.

Styles Prédéfinis

Sous les boutons ↙️ et 🗑️ se trouvent le sélecteur de style prédéfinis. Il est en effet possible créer et utiliser des styles pré-définis sous forme de mots-clefs pour les prompts positifs et négatifs. Les style existants sont affichés dans le menu déroulant Styles (par défaut, il n’y en a aucun).
Choisissez un ou plusieurs style(s) pour les utiliser en complément de votre prompt.
Le bouton 🖊️ à droite du sélecteur vous permet de créer ou modifier des styles qui s’ajouteront au sélecteur.

Modèle supplémentaires

Au côtés des paramètres de Generation l’interface dispose d’une série d’onglet permetant de sélectionner les modèles et fichier de modèles ou de networks complémentaires pour modifier la génération d’images : checkpoints, hypernetworks, LoRA, LyCORIS,…
notion image
Ces fichiers permettent d’influencer la génération d’image pour obtenir des images de styles et rendus diffèrents.
A venir : Un article explicatif sur les différents types de modèles utilisables avec Stable Diffusion - Inscrivez vous à la newsletter pour être avertis de sa sortie.

Actions sur les image

notion image
Une fois que les images sont générées, vous pouvez effectuer diverses actions sur ces images. 6 boutons sont disponibles (de gauche à droite)
  • 📁 (Open folder) permet d’ouvrir le repertoire où sont enregistrés les images.
  • 💾 (Save) permet de sauvegarder une image en la téléchargeant. Si vous utilisez ce bouton en sélectionnant une grille de vignettes, toutes les images seront sauvegardées.
  • 🗃️ (Save Zip) permet de compresser les images pour les télécharger.
  • 🖼️ (Send to img2img) ouvre l’onglet img2img en plaçant l’image comme image source.
  • 🎨 (Send to inpainting) ouvre l’onglet img2img en mode inpaiting en plaçant l’image comme image source.
  • 📐 (Send to extras) ouvre l’onglet Extras en en plaçant l’image comme image source.

2️⃣ L’onglet image-to-image

L’onglet img2img (abréviation de l’anglais image-to-image) est le second volet principal de l’interface d’Automatic1111. Il permet d’effectuer une séries d’actions générative avec l’IA avec une image source comme point de départ. Les principales actions sont la (re)generation de parties ou délèments d’une image (Inpainting) et la transformation d’image.
notion image

Comparaison avec l’interface text-to-image

Au premier regard, l’onglet img2img ressemble très fort à l’onglet txt2img et certains éléments d’interface sont effectivement exactement les mêmes et s’utilisent de la même manière.

Modèle (Checkpoint)

Le sélecteur Stable Diffusion Checkpoint est toujours présent et permet de choisir le modèle à utiliser. Cet élément est en fait permanent et indépendant de l’onglet sélectionné. Il ne change pas quand on change d’onglet.

Prompts et boutons de génération

En haut de l’interface, on retrouve en effet les champs de prompts positif et négatif et les mêmes boutons d’en text-to-image : le bouton principal Generate, les 5 petits boutons et le sélecteur de Styles. Pour comprendre leur utilisation, référez vous aux explications correspondantes dans la première partie de ce guide.
Deux boutons supplémentaire sont cependant disponibles ici : Interrogate CLIP et Interrogate DeepBooru. Ils permettent d’obtenir un texte de description pour une image :
  • Interrogate CLIP va utiliser le même modèle que celui utilisé pour comprendre les prompts pour générer une description de l’image.
  • Interrogate DeepBooru fait la même chose mais en utilisant un modèle spécialisé dans les images d’anime.

Images et Actions

La partie de droite qui affiche la ou les images générées et ses 6 boutons d’actions est aussi la même que sur l’onglet text-to-image et fonctionne de la même manière.
Il reste la partie de gauche qui est très différentes et qui reprend l’interface propres aux différentes fonctionnalités de Generation image-to-image en les organisant en 6 onglets secondaire que nous allons maintenant passer en revue.
notion image

img2img

Le premier onglet secondaire porte le même nom que l’onglet principal - ca rend parfois les explication un peu confuses puisqu’il y a donc deux onglets img2img mais ca a un certains sens dans la mesure où c’est l’onglet secondaire sélectionné par défaut. Et c’est aussi celui dédié à la principale génération d’image-to-image : la génération d’une image sur base d’une autre.
👀
Exemple de générations img2img
A partir d’une première image générée en text-to-image, on peut en créer des variations en modifiant juste le prompt de départ.
Image source
Image source
En ajoutant ‘blond hair’
En ajoutant ‘blond hair’
En ajoutant “spacesuit”
En ajoutant “spacesuit”

Img2img de base

Voyons comment utiliser cet onglet pour générer des variations d’une image de départ.
Image source
Choisissez une image source en cliquant dans la zone d’image ou en y déposant une image en cliquer-glisser. Une fois définie, l’image s’affiche dans cette zone.
Le boutons Copy To … situés juste sous l’image permettent de l’utiliser dans un des autres onglet secondaire de l’img2img.
Prompts
Même si le principe de la génération en img2img est de partir d’une image pour en générer une nouvelle, vous pouvez définir des prompts (positif et négatif) qui seront également pris en compte et influenceront le résultat final.
Ils fonctionnent exactement de la même manière que pour le text-to-image.
De nombreux autres paramètres sont les mêmes que pour la génération en text-to-image et ils fonctionnent de la même manière : Sampling Method & Steps, dimensions (width & height), GDC Scale, Batch Count & Size, Seed,…
Concernant la taille de l’image, vous pouvez utilisez le bouton 📐Auto detect pour reprendre automatiquement les dimensions de l’image source. Vous pouvez cependant modifier les dimensions si vous souhaitez redimensionner l’image (voir ci-dessous).
Les fonctions supplémentaire de restauration des visages et de Tiling sont également disponibles pour le img2img.
Denoising strength
Ce paramètres est spécifiques à la génération en image-to-image - c’est même l’un des principaux paramètres pour cette fonctionnalité.
Il contrôle à quel point l’image générée va changer par rapport à l’image source. Plus il sa valeur est élevée, plus la génération va s’écarter de l’image d’origine : à 0, Stable Diffusion ne changera rien à l’image d’origine alors qu’à A 1, l’image sera presque complètement recréée, sans plus tenir compte de la source.
La valeur par défaut de 0,7 est un bon point de départ - mais vous pouvez essayer de la faire légèrement varier selon vos besoins.
🧪
Experiences en variant la Denoising Strength
Prenons une image de départ d’un colibris et voyons comment Stable Diffusion va le redessiner en dragon (prompt: “A photorealistic illustration of a dragon”) avec différentes valeur en Denoising Strength :
Image d’origine
Image d’origine
Denoising Strength à 0,2
Denoising Strength à 0,2
Denoising Strength à 0,4
Denoising Strength à 0,4
Denoising Strength à 0,6
Denoising Strength à 0,6
Denoising Strength à 0,8
Denoising Strength à 0,8
Denoising Strength à 1
Denoising Strength à 1

Redimensionnement de l’image

L’img2img dispose également d’une série de paramètres liés au Redimensionnement (Resizing) des images.
notion image
Resize mode
Ce paramètre indique la manière dont stable Diffusion va essayer concilier les rapports largeur / hauteur de l’image source et de l‘image à générée lorsqu’ils ne sont pas identique. Voyons comment chaque mode modifie l’image en prenant une image rectangulaire qu’on va transformer en carré.
L’image de départ
L’image de départ
Just Resize
Cette option va simplement redimensionner l’image pour qu’elle correspondent aux dimensions en l’élargissant ou en l’écrasant.
notion image
Crop en resize
L’image va respecter les dimensions en coupant le bords pour maintenir le rapport puis en redimensionnant l’image si nécessaire.
notion image
Resize and fill
L’image va respecter les dimensions en en ajoutant des bords pour maintenir le rapport puis en redimensionnant l’image si nécessaire.
notion image
Just Resize (latent upscale)
L’image va être agrandie en utilisant la génération en IA pour la redessiner en plus grand. Avec cette option, il est recommandé d’utiliser un Denoising Strenght supérieur à 0,5 pour éviter que l’image ne devienne floue.
notion image
Plutôt que de définir la taille de la nouvelle image en indiquant des dimensions, vous pouvez également choisir Resize by et indiqué une échelle (Scale) à utiliser pour agrandir ou rétrécir l’image.
notion image
A venir : Le Guide de l’upscaling avec Automatic1111 - Inscrivez vous à la newsletter pour être avertis de sa sortie.

Sketch

Depuis l’onglet Sketch, il est possible d’utiliser un croquis ou un dessin qui va servir d’esquisse à votre nouvelle image. Bien qu’un peu simpliste, l’interface de croquis permet de réaliser des dessins basiques ou de dessiner par dessus une image existante pour la modifier.

Dessiner un croquis

Pour dessiner un croquis directement dans Automatic1111, il faut partir d’un image ‘vide’ (un carré blanc, par exemple - ou un carré noir). Vous pouvez ensuite dessiner sur cette image avec l’outil de crayon, en variant les couleurs et l’épaisseurs si nécessaire.
 
 
Une fois votre croquis prêt, il suffit d’indiquez un prompt décrivant le résultat final attendu et de cliquer sur Generate.
notion image
Comme pour la génération en img2img standard, vous pouvez jouer avec la Denoising Strenght pour que l’IA respecte plus ou moins le croquis de départ. Les autres paramètres de génération en sont également disponibles et fonctionnent comme expliqués plus haut.
Si Sketch permet de créer des composition et des images à l’aide d’un croquis, vous remarquerez qu’ils reste un peu limité : soit le Denoising Strenght est faible et l’image ressemblera très fort (trop?) au croquis d’origine, soit vous augmenter la valeur mais l’IA peut alors prendre beaucoup de liberté et générer un résultat très éloigné de votre image. Si vous souhaitez un meilleur contrôle, vous devrez utiliser des outils spéciaux, apellez Conrolleurs - par exemple le célèbre ControlNet.

Inpaint

L’Inpainting est l’une des fonctionne les plus intéressante en image-to-image - peut être même LA fonction qui rend cet onglet vraiment utile.
L’Inpainting consiste en la (re)génération d’une ou plusieurs parties de l’image source. Il permet de rectifier les imperfections en les "recouvrant" et en refaisant la zone concernée. Il permet également d’ajouter un éléments à une image ou l’adapter à vos besoins spécifiques.
C’est essentiellement la même chose que le célèbre Generative Fill de Photoshop ou le nouveau Vary (Region) de Midjourney.

Modifier rapidement une image

Imaginons que venez de généré cette image en text-to-image. Vous l’aimez plutôt bien mais ce qu’elle tient dans sa main droite ne ressemble à rien. Heureusement, nous allons pouvoir utiliser l’Inpainting pour remplacer ca par une épée.
L’image de départ
L’image de départ
Le masque d’inpainting
Le masque d’inpainting
La nouvelle image
La nouvelle image
La méthode pas à pas pour effectuer ce genre de modifications :
  1. Cliquez sur le bouton Send to Inpaint sous l’image générée dans l’onglet txt2img
  1. Cliquez sur le petit 🖋️ et recouvrir d’un masque la zone de l’image à redessiner.
  1. Indiquer en prompt ce qui doit être généré dans l’image et cliquer sur Generate
Autres exemples d’Inpainting :
L’image de départ
L’image de départ
Le masque d’inpainting
Le masque d’inpainting
La nouvelle image
La nouvelle image
L’image de départ
L’image de départ
Le masque d’inpainting
Le masque d’inpainting
La nouvelle image
La nouvelle image

Paramètres d’Inpainting

En plus des paramètres standards déjà expliqué plus haut, l’Inpaiting a ses propres paramètres que vous pouvez utiliser pour affiner la génération.
notion image
Mask blur
C’est le niveau de flou appliqué aux contours du masque. Ce flou permet d’éviter de bords trop nets et marqué autours de la zone modifiée. En général, vous voudrez utiliser une valeur entre 4 et 8.
Mask mode
Cette option change la manière dont vous devrez selectionné le contenu à modifier : Stable Diffusion peut générée une zone d’image qui correspond au masque (Inpaint masked) ou, au contraire, générer tout le reste de l’image (Inpaint not masked).
Masked content
Cette option contrôle comment est initialisée le contenu zone du masque pour la génération:
  • Fill : remplissage avec une version extrêmement floutée de l'image de départ.
  • Original : utilisation de l’image non modifiée (revient donc à faire du img2img classique sur la zone masquée).
  • Latent noise : Comme le Fill mais en ajoutant un bruit aléatoire de pixels.
  • Latent nothing : Génère un fond proche du fill, sans ajouter de bruit.
Voici ce que donne chaque mode de Masked content sur une même selection (il faut clairement redessiner ces bras) :
Fill
Fill
Original
Original
Latent noise
Latent noise
Latent nothing
Latent nothing
Selon l’option utilisée, vous devrez adapter le Denoising Strenght (qui s’applique donc au remplissage obtenu)- Il devra ainsi être plus élevé pour le mode Latent noise.
Inpaint area
Ce réglage détermine la zone de référence utilisée pour générer la nouvelle image.
Avec le mode par défaut, Whole Picture, l'ensemble de l'image sert de référence, garantissant ainsi une meilleure cohérence avec l'image dans son ensemble. Ce réglage est adapté à tous les modes de Masked content.
En mode Only masked seule la partie masquée est prise comme référence. Qui plus est, cette zone est redimensionnée selon les dimensions et paramètres spécifiées en Resize to/by avant la génération. Cela offre la possibilité d'améliorer la résolution de la partie masquée sans altérer les dimensions de l'image source.
Only masked padding
Ce réglage déterminent le nombre de pixels supplémentaires à utiliser comme repère pour le mode Inpaint area : Only masked : la zone masquée sera étendue du nombre de pixels choisis pour essayer de garder un meilleure cohérence avec l’image complète.
Cette option n’a aucun effet en mode Inpaint area : Whole picture.

Inpaint sketch

Inpaint sketch fusionne l’Inpainting et le Sketch : Il offre la possibilité de dessiner comme si vous étiez dans l'onglet de croquis, tout en ne régénérant que la partie que vous avez dessinée.
Tout ce qui n'est pas dans le dessin demeure intact.
L’image d’origine
L’image d’origine
Le croquis en Inpaint Skecth
Le croquis en Inpaint Skecth
La nouvelle image
La nouvelle image

Inpaint upload

Inpaint upload permet d’utiliser une image de masque plutôt que de le dessiner dans l’interface.
Cela fonctionne exactement comme l’inpainting standard sauf qu’au lieu de dessiner le masque, vous devez choisir une seconde image dans la zone Mask - et c’est cette image qui sera utilisée comme masque.
L’image masque doit être en noir et blanc : le noir est la partie qui ne sera pas modifiée, le blanc celle qui sera redessinée par l’IA. Vous devez également utiliser une images avec un rapport de dimensions hauteur/largeur similaire à celui de l’image source.
 

Batch

Ce dernier onglet vous permet d’effectuer de la génération img2img, ou de l’inpainting en série :
notion image
Pour effectuer de l’Inpainting en série, vous devez spécifiez :
  1. Obligatoire : Un repertoire sur votre ordinateur avec toutes les images sources.
  1. Facultatif : Le repertoire dans lequel enregistrer les images générées. Si vous laissez ce champs vides les images seriont enregistrées dans le répertoire par défaut (outputs/img2img-images)
  1. Facultatif : Un repertoire sur votre ordinateur qui contient des images de masques à utiliser pour l’inpainting. Il faut une image de masque par image source, avec le même nom que l’image source. Si vous laissez ce champs vide, ce sera du img2img en série.

3️⃣ L’onglet Extras

Cet onglet aurait franchement pu s’appeler Upscaling puisque c’est essentiellement à cela qu’il sert.
L’upscaling est une technique qui consiste à augmenter la résolution d’une image à l’aide d’algorithmes et d’IA qui ne se contentent pas d’agrandir les pixels de l’images mais ajoutent des détails. Et c’est donc à cela que sert l’onglet Extra de l’interface d’Automatic1111.
notion image

Upscaling de base

  1. Dans l’onglet Extra, sélectionnez Single image
  1. Téléchargez une image dans la zone Source
  1. Choisissez une échelle de dimension dans Resize by - la taille de chaque côté sera multipliée par l’échelle choisie.
  1. Choisissez un Upscaler 1 - R-ESRGAN 4x+ est un upscaler générique plutôt performant.
  1. Cliquez sur Generate pour lancer l’upscaling - L’image redimensionnée apparaitra à droite.
Remarque : Vérifiez le résultat en pleine résolution pour repérer d’éventuels défauts générés par l’upscaler que ne se verraient pas en version réduite.

Paramètres d’upscaling

Echelle et dimensions

Scale by / Scale to permettent de définir la taille de l’image finale.
Le premier permet de définir une échelle (x2, x4,…) utilisée pour redimensionner l’image.Par exemple, avec Resize by 4, une image en 1024 x 768 sera agrandie en 4096 x 3072 (hauteur et largeur sont est multipliées par 4)
Le second permet de définir la dimensions en pixel.
Lorsque Crop to fit est coché en Scale to et que le rapport largeur/hauteur ne correspond par à l’image source, ses bords seront coupé pour la faire correspondre.

Upscalers

Automatic1111 vous laisse choisir parmi plusieurs algorithmes pour effectuer l’upscaling.
Lanczos et Nearest sont des algorithmes mathématique, sans IA, qui donnent des résultat moyen mais sont rapides et prévisibles.
Les autres Upscalers utilisent l’IA pour créer une version agrandie de l’image. Vous pouvez tester différents upscaler pour voir comment ils se comportent.
D’une manière générale R-ESRGAN 4x+ est un bon choix par défaut - Sauf pour les images d’anime, cartoon et ND pour lesquellles vous voudrez utiliser des Upscalers spécifiques comme R-ESRGAN 4x+ Anime6B.
Choisissez toujours un algorithmes en Upscaler 1.
Eventuellement, vous pouvez également en choisir un second comme Upscaler 2. L’agrandissement se fera alors en combinant les deux techniques - Le paramètre Upscaler 2 Visibility définit alors l’importance du second par rapport au premier.
A venir : Le tutoriel complet sur l’Upscaling - Inscrivez vous à la newsletter pour être avertis de sa sortie.

Restauration des visages

Lors de la mise à l'échelle, il est également possible de restaurer les visages.
Vous avez le choix entre deux options : GFPGAN ou CodeFormer.
Augmentez la Visibility de l’un des deux pour activer la correction. Pour CodeFormer, vous pouvez également définir la force de la correction en weight (0 : pas d’effet / 1: effet maximum).
Essayez cependant de garder des valeurs les plus basses possibles pour que l'esthétique de l'image reste intacte.
 

4️⃣ L’onglet PNG Info

Plusieurs interfaces pour Stable Diffusion, dont celle d’AUTOMATIC1111, ajoutent directement les paramètres de la génération au sein des fichiers PNG généré. C’est une fonctionnalité très pratique pour récupérer les paramètres.
En téléchargeant une image dans la zone Source, vous obtenez directement les paramètre dans l’espace de droite.
notion image
Et si votre image provient d'AUTOMATIC1111, les boutons Send to vous permettent de copier ces paramètres en un instant vers différentes onglets.
C'est une fonctionnalité particulièrement intéressante si vous trouvez une image en ligne que vous souhaitez vérifier si les paramètres et détails de génération y sont toujours intégrées.
 

5️⃣ L’onglet Checkpoint Merger

AUTOMATIC1111 permet de fussioner plusieurs fichier de modèles (checkpoints) entre eux.
Cette option est en générale utiliser pour mélanger les styles de différents modèles. Mais le résultat de cette fusion n'est pas toujours optimal et peut engendrer des imperfections. Il faudra souvent plusieurs essais en variant les paramètres pour obtenir un modèle vraiment utilisable.
Depuis cet onglet, vous avez la possibilité de combiner jusqu'à trois modèles pour en concevoir un nouveau.
notion image
  1. Les modèles principaux (A, B et C) sont les modèles que vous sélectionnez parmi les modèles disponible dans votre repertoire d’installation (/stable-diffusion-webui/models/Stable-diffusion).
    1. Le nombre de modèle à choisir et ma manière dont ils seront fusionnés de la méthode d’interpolation que vous sélectionnez.
  1. Interpolation Method : Il y a 3 méthodes d'interpolation disponible :
      • No interpolation : Seul le modèle A est utilisé, idéal pour une simple conversion de fichier ou pour changer le VAE.
      • Weighted Sum : Associe les modèles A et B en utilisant le Mulitplier M (définis juste au dessus) pour le modèle B. La formule correspondante est A * (1 – M) + B * M.
      • Add difference : Cette méthode fusionne trois modèles en utilisant le Mulitplier M selon la formule A + (B – C) * M.
  1. Vous pouvez générer le fichier dans un format au choix :
      • ckpt : Il s'agit du format historique des checkpoint (déconseillé).
      • safetensors : C'est une innovation de Hugging Face - Ce format est particulièrement sécurisé. Contrairement aux modèles ckpt, un modèle Safe Tensor ne risque pas d'exécuter de codes malveillants, même s'ils sont intégrés au modèle.
  1. Copy config from
    1. Si l'un des modèles que vous souhaitez fusionner possède un fichier de configuration, choisir cette option vous donnera la possibilité de déterminer quelle configuration sera conservée avec le modèle fusionné.
  1. Bake in VAE
    1. Cette option vous permet de remplacer le décodeur VAE actuel par un autre. Ca permet d'opter pour un décodeur plus performant.
Une fois les paramètres définis, le bouton Merge lance les calculs de fusion.

6️⃣ L’onglet Train

Cet onglet permet de former des modèles, LoRA et Hypernetwork avec Automatic1111.
La création et l’entrainement de modèle est un sujet vaste et complexe que nous ne traiterons pas dans ce manuel.
Nous essayerons de partager sur le blog différents tutoriels sur la création de modèle sur mesure et le Fine Tunning, avec Automatic1111 ou d’autre méthode. Inscrivez vous à la newsletter si vous souhaitez être avertis de leurs publications.
 

7️⃣ L’onglet Settings

Les Settings comportent un grand nombre de paramètres de configuration pour l’interface d’Automatic et la manière dont il va utiliser Stable Diffusion. Certaines options concernent juste l’affichage et l’interface, d’autres vont plus influencer la génération d’image elle-même.
Les paramètres sont regroupé par fonctionnalités ou thèmes, accessibles via la colonne de gauche.
notion image
Voici les principaux paramètres à connaitre pour utiliser Automatic1111.
Lorsque vous changer un ou plusieurs de ces paramètres, vous devez cliquer sur le bouton Apply settings pour les appliquer. Certains paramètres requièrent également un redémarrage de l’interface, ce qui se fait avec le bouton Reload UI.

Saving Images/grids

Ces différents paramètres permettent de configurer comment les images générées sont sauvegardées.
Par défaut, Automatic1111 est configuré pour enregistrer les images au format .png avec un nom de fichier reprenant un numéro unique suivis du seeds de l’image et du prompt. Vous pouvez modifier ce nom en fichier en définissant votre Image filename pattern - Cette page explique en détails les paramètres disponibles.

Paths for saving

Vous pouvez aussi modifier l’endroit où les images générée seront automatiquement enregistrée (le Path).
Par défaut, les images seront enregistrées dans différents sous-repertoires du répertoire /outputs de votre installation selon l’onglet utilisé pour générer l’image (txt2img-images, img2img-images,…). Libre à vous de modifier ces repertoires si l’organisation par défaut ne vous plait pas.

Saving to a directory

Ces paramètres définissent si, en plus des repertoires définis en Paths for saving, Automatic1111 va générer un sous-repertoire supplémentaire. C’est cette option qui est utilisée par défaut pour créer un repertoire avec la date de génération.

Upscaling

Pour rester simple, l’interface d’Automatic1111 pour l’upscaling (dans l’onglet Extra) ne reprend pas tous les paramètres possibles pour les diffèrents upscalers proposés. C’est ici que ces paramètres avancés sont regroupés.
A priori, vous pouvez conservez les paramètres par défaut - ne le modifiez que si vous savez ce que vous faites ou si vous avez besoin ou envie d’expérimentez leurs effets.

Face restoration

Ici, vous pouvez sélectionner le modèle de base à utiliser pour la Restauration des visages : un modèle supplémentaire (CodeFormer ou GFPGAN) est utilisé sur l’image générée pour réparer les défauts sur les visages.
notion image
CodeFormer et sa configuration par défaut ( weight 0,5) est un bon point de d”part qui devrait vous satisfaire.
Cocher la case Restore faces pour utiliser la Restauration des visages lors de vos générations d’images.
Il est également possible d’ajouter la case aux paramètres de génération, de manière à pouvoir choisir à chaque fois si vous voulez utiliser au non la restauration des visages. Pour cela, ajoutez face_restoration à la liste Options in main UI - txt2img dans les paramètres de User Interface

Fonctionnement de la Restauration des visages

Lorsque Restore Faces est coché, le modèle sera utilisé pour améliorer le rendu des visages et éliminer les défaut les plus courant dans les images générées par Stable Diffusion.
Attention : Cette option fonctionne pour les images photoréalistes mais n’est pas conseillée pour les dessins de type anime ou cartoon. En outre, elle a tendance à donner un air un peu retouché ou lissé aux visages - A utiliser avec parcimonie et modération donc.
Une image générée sans la restauration de visage
Une image générée sans la restauration de visage
La même image avec la restauration de visage
La même image avec la restauration de visage

System

Cette partie regroupe plusieurs paramètres liés à l’exécution de Stable Diffusion dans la console de ligne de commande (aussi appellée Terminal).
Une option intéressante est Automatic open webui in browser on startup : elle permet d’ouvrir automatiquement Automatic1111 dans votre navigateur quand vous le lancer en ligne de commande.

API

Automatic1111 peut être utilisé programmatiquement au moyen d’un API REST .
Il s’(agit d’un usage avancé que nous ne couvrirons pas ici.

Training

Cette partie regroupe les options relative à l’ongelt Train pour la formation d enouveaux modèles et networks complémentaires.

Stable Diffusion

Une série d’option liée à l’utilisation des modèles Stable Diffusion.

Random Number generator source

Ce paramètre définis comment sont générés les Seeds de départ pour les images. Le source sélectionnée change radicalement comment ils sont générés - utilisez le CPU pour produire la même image avec différents fournisseurs de cartes vidéo ; utilisez NV pour produire la même image qu’avec une carte vidéo NVidia.

Tiling

L’option Tiling permet de produire une image qui peut être répétée horizontalement et verticalement, comme un papier peint ou un carrelage.
Une image générée sans l’option Tilling
Une image générée sans l’option Tilling
Le même prompt avec Tiling activé
Le même prompt avec Tiling activé
Un aperçu de l’image en papier peint
Un aperçu de l’image en papier peint
Il est également possible d’ajouter la case aux paramètres de génération, de manière à pouvoir choisir à chaque fois si vous voulez utiliser au non le tilling. Pour cela, ajoutez tilling à la liste Options in main UI - txt2img dans les paramètres de User Interface

Stable Diffusion XL

Ici vous trouverez quelques options supplémentaires propres à Stable Diffusion XL.

VAE

Un VAE est un type de réseau neuronal conçu pour convertir une image RGB classique en une représentation dans un espace latent, et inversement. Cette représentation en espace latent est l'élément sur lequel Stable Diffusion agit pendant la phase d'échantillonnage. Dans le cas de txt2img, le VAE sert à générer l'image finale une fois l'échantillonnage achevé. Quant à img2img, le VAE prend en charge le traitement de l'image fournie par l'utilisateur avant l'échantillonnage, et produit également l'image finale après cette étape.
Cette section des settings définis plusieurs paramètres pour l’utilisation des VAE. A priori, vous voudrez laissez le choix du VAE en Automatic - mais certains checkpoints reccomandent d’utiliser des VAE spécifiques pour de meilleurs résultats.

img2img

Cette partie permet de configurer la génération img2img ainsi que plusieurs éléments de l’interface comme la couleur par défaut du crayon pour dessiner les croquis (Sketch initial brush colo) ou celle du masque pour le masque d’inpainting (Inpaint mask brush color)

Optimization

Cers paramètres avancés peuvent être utilisé pour optimiser la génération d’image, notamment en ignorant le prompt négatif pour les dernières étapes (steps) d’une image.

Compatibility

Ces options sont destinée aux utilisateurs des anciennes versions d’Automatic1111 en maintenant la compatibilité des anciens paramètres de génération.

Interrogate

Ici vous trouverez les paramètres lié aux fonctions Interrogate Clip et interrogate Deepbou qui permettent de décrire les images source en img2img.

Extra networks

Différents paramètres modifiables pour la prise en charge et l’utilisation des modèles et networks complémentaires (Hypernetworks, LoRA,…).

User Interface

Ici, vous allez pouvoir modifier l’interface pour l’adapter à vos besoins et votre usage.

Quick settings

vous pouvez choisir un ou plusieurs paramètres à afficher tout en haut, au côté du menu de sélection du Checkpoint Stable Diffusion. Par exemple, certains utilisateurs aiment y ajouter Le sélecteur de VAE.

Paramètres supplémentaires d’Hires Fix

notion image
Ces deux options ajoutent des paramètres pour la fonctionnalité d’Hires Fix de l’onglet img2img :
notion image
  • Possibilité de choisir un checkpoint et/ou un échantilloneur diffèrents pour l’agrandissement.
  • Possibilité de définir un prompt (positif et négatif) spécifique pour l’agrandissement.

Paramètres de génération supplémentaire

Les selecteurs Options in main UI text2img/img2img permettent d’ajouter des options de génération pour le text2img ou l’img2img.
vous pouvez par exemple y ajouter face_restoration et tiling pour ajouter les cases à cocher correspondantes à vos paramètres de génération d’image.
notion image

Infotext

Ces paramètres définissent quelles informations seront reprises en infotext (aussi appelé metadata) et comment celui-ci peut être lu et utilisé.
L’infotext est affiché sous l’image générée mais également ajouté dans l’image générée, de sorte à pouvoir être lu et récupéré dans l’onglet PNG Info (ou en déposant l’image dans le champs prompt)

Live previews

Ici, vous pouvez modifier comment Automatic1111 affiche la progression dans la génération des images et montre (ou non) une preview de l’image en cours de génération.

Sampler parameters

Ces paramètres correspondent aux échantillonneurs (Samplers) et leur utilisation pour la génération d’image.

Postprocessing

En utilisant ces options vous pouvez ajouter des opérations supplémentaire qui s’effectueront sur les images générées.
Il y a deux opération possible : l’upscaling et la restauration de visage avec CodeFormer ou GFPGAN.
Prenez ces options comme une manière alternative d’effectuer un Hires Fix ou le face restore.

Canva hotkeys

Les Canva sont les zones dans lesquelles vous pouvez dessiner comme par exemple le sketch ou l’inpaint en img2img.
Les raccourcis claviers suivants définis et peuvent être modifiés :
  • Zoom canvas : Pressez la touche choisie et bouger la souris pour zoomer sur l’image.
  • Adjust brush size : Pressez la touche définie et bouger la souris pour agrandir ou rétrécir l’épaisseur du trait.
  • Moving the canva : Pressez la touche définie et bouger pour déplacer la zone Canva à l’écran.
  • Full screen mode : agrandis la zone de Canva pour qu’elle prenne la hauteur de l’écran.
  • Reset zoom and canva posistion : remet la zone Canva à son point de départ et le zoom à 0.

Defaults

Cette page vous permet de modifier les valeurs par défauts utilisés pour les paramètres de l'interface.
Cliquez sur View Changes pour voir quels paramètres ont été modifiés par rapport aux valeurs par défaut. Appuyez ensuite sur Appliquer pour les enregistrer dans un fichier de configuration qui sera appliqué après le redémarrage de l'interface.

Changer la dimension par défaut des images

Par défaut, Automatic1111 utilise une dimensions de 512x512 pour les images. Mais si vous utilisez SDXL, vous aurez probablement envie de travailler avec du 1024x1024 par défaut. Voici comment faire :
  1. Dans l’onglet txt2img, modifier les valeur width et height en 1024px.
  1. Rendez-vous dans l’onglet Settings et sélectionnez Defaults.
  1. Cliquez sur View Changes. Deux lignes devraient apparaitre indiquant le changement de 512 à 1024 pour txt2img/Width/value et txt2img/Height/value
  1. Cliquez sur Apply
notion image

Sysinfo

Cette page vous permet de récupérer toute une série d’informations sur votre système et votre installation d’Automatic1111.

Actions

Cette page reprend plusieurs actions de maintenance que vous pouvez effectuer :
  • Request browser notifications : Déclenche la demande d’autorisation pour qu’Automatic1111 puisse utiliser les notifications du navigateur - par exemple vous signaler qu’une génération est terminée.
  • Download localization template : Permet de télécharger le modèle de fichier à utiliser pour créer une traduction de l’interface.
  • Reload custom script bodies (No ui updates, No restart) : Recharge des données de scripts sans relancer l’UI.
  • Unload SD checkpoint to free VRAM : Libère de la mémoire en retirant les checkpoints qui y ont été précédemment chargées.
  • Reload the last SD checkpoint back into VRAM : Recharge en mémoire le dernier checkpoint utilisé.

Licenses

Cette page affiche le texte complet des licences des diffèrentes librairies et des modèles utilisés par l’interface Automatic1111.

8️⃣ L’onglet Extensions

Cet onglet reprend les extensions installées sur votre interface Automatic1111 et permet d’en ajouter de nouvelles. Une série d’extensions sont installées automatiquement avec Automatic1111 (les built-in).
notion image

Installer des extensions

Depuis le Répertoires d’extensions

La méthode la plus simple pour installer une extension Automatic1111 est d’aller dans l‘onglet Available et de cliquer sur le bouton Load from qui va lancer la chargement de la liste des extensions disponibles.
notion image
Vous pouvez ensuite parcourir cette liste à la recherche de l’extension que vous souhaitez installer. Pour la trouver plus facilement, vous pouvez utiliser la fonction de recherche de votre navigateur (Ctrl/Cmd+F) en cherchant le nom ou un mot clefs.
Vous pouvez également filtrer la liste au moyen des tags et utiliser les options de tri présentes au dessus de la liste.
Quand vous avez trouvé votre extension, cliquer sur le bouton Install à droite pour l’installer.
Une fois que vous avez installé la ou les extension(s) que vous souhaitiez, retourner dans l’onglet Installed et cliquer sur le bouton Apply and restart UI pour que les extensions soient prises en compte.

Depuis un URL

Alternativement, vous pouvez également installer une extensions en indiquant l’adresse de son repository GIT en ligne (adresse Github ou Gitlab) avant de cliquer sur Install.
notion image
Cette méthode est pratique lorsque vous connaissez l’extension et avez déjà son URL puisqu’elle vous évite de devoir chercher dans la (longue) liste des extensions disponibles de l’onglet Avbailable.

(Des)activer des extensions

Depuis l’onglet Installed vous pouvez également activé ou désactivé des extensions sur votre interface en cochant ou décochant la case devant le nom de l’extension.
Le bouton Check for update permet de vérifier si vous avez des extensions à mettre à jour.

Payer une seule fois pour un accès à vie à la génération d’image avec Stable Diffusion et Diffus

🔥 Lifetime Deal à -60% 🔥

Profiter de l'offre

Ecrit par