Sommaire
- Qwen-Image-Edit en bref
- Forces et applications
- Limites à connaître
- Ce dont vous avez besoin
- Configuration matérielle
- ComfyUI à jour
- Fichiers de base (si déjà installé)
- Téléchargement des modèles Qwen-Image-Edit
- Versions disponibles
- Les fichiers essentiels
- Organisation des fichiers
- Édition d'images avec Qwen-Image-Edit
- Charger le workflow standard
- Détails du workflow
- A. Chargement des modèles
- B. Image source
- C. Instructions d'édition
- D. Génération et finalisation
- Configuration de base
- Première édition
- Édition accélérée avec Lightning
- Troubleshooting et problèmes courants
- Problèmes de qualité
- Problèmes techniques
- L'édition professionnelle accessible
- Ressources et communauté
- Documentation officielle
- Communauté et support
- Veille et évolutions

Dernière mise à jour : 27/12/2025
Modifier une image avec précision, c'est souvent la partie la plus frustrante du travail créatif. Les outils traditionnels demandent des heures de masquage manuel et de retouches minutieuses. Les solutions cloud payantes imposent leurs limitations et leurs restrictions.
Qwen-Image-Edit change la donne. Basé sur le modèle Qwen-Image de 20 milliards de paramètres, ce modèle spécialisé dans l'édition d'images apporte deux capacités remarquables : l'édition sémantique qui transforme le style tout en préservant l'identité des sujets, et l'édition d'apparence qui modifie des éléments précis sans toucher au reste de l'image. Le tout avec une gestion du texte qui dépasse largement ce que proposent les autres modèles.
Et comme Qwen-Image, c'est un modèle open-source sous licence Apache 2.0. Vous l'installez une fois sur votre machine, et il vous appartient. Pas d'abonnement mensuel, pas de limitations arbitraires, pas de données envoyées dans le cloud.
Ce guide vous accompagne de l'installation jusqu'à la maîtrise des techniques avancées d'édition avec Qwen-Image-Edit dans ComfyUI. Vous découvrirez comment transformer vos images avec une précision professionnelle, que ce soit pour de l'édition de texte, des transformations stylistiques, ou des modifications complexes multi-images.
Ce guide couvre l’utilisation de Qwen-Image-Edit avec ComfyUI. Nous recommandons cependant de commencer par utiliser Qwen-Image avant de passer à la version Edit. Si ce n’est pas déjà fait, nous vous invitons donc à suivre notre Tutoriel sur Qwen-Image dans ComfyUI avant de continuer avec Qwen-Image-Edit.
Qwen-Image-Edit en bref
Avant de plonger dans la pratique, prenons quelques instants pour comprendre ce qui fait de Qwen-Image-Edit un outil d'édition unique.
Développé par Alibaba Cloud et publié sous licence Apache 2.0, Qwen-Image-Edit est une version spécialisée du modèle Qwen-Image. Contrairement à son cousin qui génère des images depuis zéro, Qwen-Image-Edit part d'une ou plusieurs images existantes pour les transformer selon vos instructions textuelles. Cette spécialisation lui permet d'atteindre un niveau de contrôle et de précision difficile à obtenir avec des modèles généralistes.
Forces et applications
La grande force de Qwen-Image-Edit, c'est sa polyvalence dans deux domaines distincts mais complémentaires.
- L'édition sémantique permet de transformer le contenu d'une image tout en préservant son essence. Vous pouvez changer un personnage de style (passer d'une photo réaliste à un dessin Studio Ghibli, par exemple), modifier sa pose, le faire pivoter à 180 degrés, ou créer des variations tout en gardant son identité reconnaissable. C'est parfait pour la création de contenu IP, les avatars virtuels, ou l'expansion créative autour d'un personnage ou d'une marque.
- L'édition d'apparence, elle, se concentre sur des modifications précises sans toucher au reste de l'image. Ajoutez une enseigne à un bâtiment et le modèle générera même son reflet dans une vitrine. Supprimez des cheveux indésirables ou un objet gênant avec une précision chirurgicale. Changez la couleur d'une lettre spécifique dans un texte, modifiez l'arrière-plan d'un portrait, ou remplacez des vêtements. Les applications pratiques sont infinies : restauration de photos anciennes, création de variantes produits, adaptation de visuels marketing.
La gestion du texte mérite une mention spéciale. Qwen-Image-Edit hérite des capacités exceptionnelles de Qwen-Image en matière de rendu typographique. Vous pouvez ajouter, modifier ou supprimer du texte dans une image tout en préservant la police, la taille et le style d'origine. Cette capacité s'étend au chinois et à l'anglais, ce qui en fait un outil de choix pour l'adaptation multilingue de visuels.
La version la plus récente, Qwen-Image-Edit-2511, pousse encore plus loin avec l'édition multi-images. Fusionnez plusieurs personnes dans une photo de groupe cohérente, combinez un produit avec différents arrière-plans, ou créez des compositions complexes en mélangeant plusieurs sources. Le modèle maintient la cohérence visuelle et l'identité des sujets même dans ces scénarios complexes.
Limites à connaître
Comme tout modèle, Qwen-Image-Edit a ses contraintes. La principale reste matérielle : avec environ 20 Go pour la version optimisée FP8, vous aurez besoin d'un GPU avec au minimum 12 Go de VRAM, idéalement 16 Go pour travailler confortablement. C'est comparable à Qwen-Image, mais plus exigeant que des modèles d'édition plus légers.
L'édition multi-images, bien que puissante, donne ses meilleurs résultats avec 1 à 3 images sources. Au-delà, la complexité augmente et les résultats deviennent moins prévisibles. Pour des compositions très complexes, il vaut mieux procéder par étapes successives plutôt que de tout faire en une passe.
Enfin, l'édition demande parfois plusieurs itérations pour obtenir exactement le résultat souhaité. Contrairement à la génération pure où on peut lancer plusieurs variations en parallèle, l'édition implique souvent un processus itératif : vous modifiez, vous observez, vous affinez. C'est le prix de la précision.
Ce dont vous avez besoin
Avant de vous lancer, vérifions que votre configuration est prête pour Qwen-Image-Edit. La bonne nouvelle, c'est que si vous avez déjà installé Qwen-Image, vous êtes presque prêt.
Configuration matérielle
La question de la VRAM reste centrale. Qwen-Image-Edit partage les mêmes exigences que Qwen-Image, puisqu'il est basé sur la même architecture de 20 milliards de paramètres.
- Avec 24 Go de VRAM ou plus (RTX 4090, RTX 6000 Ada, A5000), vous êtes dans la zone idéale. La version BF16 complète tournera sans compromis, avec des temps d'édition optimaux. C'est la configuration recommandée si vous prévoyez un usage intensif avec de l'édition multi-images.
- Entre 12 et 16 Go de VRAM (RTX 3090, RTX 4070 Ti, RTX 4060 Ti 16GB), vous êtes dans la zone recommandée. La version FP8 optimisée sera parfaite pour vous. Elle divise par deux l'espace disque et la VRAM nécessaires tout en maintenant une qualité quasi identique à l'original. C'est le sweet spot pour la plupart des utilisateurs.
- Avec 8 à 10 Go de VRAM (RTX 3060, RTX 4060), les versions quantifiées restent une option viable. Les performances seront un peu plus lentes, mais tout à fait utilisables pour de l'édition régulière.
- En dessous de 8 Go, l'utilisation locale devient compliquée. Dans ce cas, des solutions cloud offrent une alternative intéressante pour tester et utiliser le modèle (avant d'investir dans du matériel).
Niveau espace disque, prévoyez entre 20 et 40 Go selon la version choisie. Un SSD accélérera le chargement des modèles, même si ce n'est pas strictement obligatoire.
ComfyUI à jour
Qwen-Image-Edit nécessite une version récente de ComfyUI pour fonctionner correctement. Les nodes nécessaires n'existaient pas dans les versions plus anciennes, donc si vous utilisez encore une vieille installation, c'est le moment de mettre à jour.
Si vous n'avez pas encore ComfyUI installé, consultez nos guides détaillés :
- Installer ComfyUI Desktop (recommandée)
Pour ceux qui préfèrent tester avant d'installer localement, Comfy Cloud permet d'accéder à ComfyUI directement depuis le navigateur avec des GPU préconfigurés. C'est idéal pour découvrir Qwen-Image-Edit sans engagement matériel.
Fichiers de base (si déjà installé)
Si vous avez déjà installé Qwen-Image, bonne nouvelle : plusieurs fichiers sont communs aux deux modèles. Vous aurez seulement besoin de télécharger le modèle de diffusion spécifique à l'édition, le reste peut être réutilisé.
Vérifiez donc que vous avez déjà ces fichiers dans votre installation :
- L'encodeur de texte
qwen_2.5_vl_7b_fp8_scaled.safetensorsdansComfyUI/models/text_encoders/
- Le VAE
qwen_image_vae.safetensorsdansComfyUI/models/vae/
Si vous partez de zéro ou si certains fichiers manquent, pas d'inquiétude : la section suivante détaille exactement ce qu'il faut télécharger et où le placer.
Téléchargement des modèles Qwen-Image-Edit
Le téléchargement et l'organisation des fichiers suivent la même logique que pour Qwen-Image. Si vous connaissez déjà le processus, vous serez en terrain familier. Si c'est votre première fois, suivez simplement les étapes ci-dessous.
Versions disponibles
Qwen-Image-Edit existe en plusieurs versions selon votre GPU et vos besoins. Il y a également eu deux mise à jour majeures du modèle après sa première parution.
Qwen-Image-Edit (août 2024) est la toute première version du modèle d'édition. Elle introduit les capacités fondamentales d'édition sémantique et d'apparence, avec un focus sur l'édition d'images simples. C'était une première démonstration prometteuse mais limitée à l'édition d'une seule image à la fois.
Qwen-Image-Edit-2509 (septembre 2024) représente une évolution majeure avec l'introduction du support multi-images. Cette version améliore significativement la cohérence dans l'édition de personnes et de produits, renforce les capacités d'édition de texte, et ajoute le support natif de ControlNet pour le contrôle de pose et les croquis. C'est à partir de cette version que le modèle devient réellement utilisable dans des workflows créatifs professionnels.
Qwen-Image-Edit-2511 (novembre 2024) est la version la plus récente et la plus aboutie. Les améliorations incluent : meilleure cohérence des personnages dans les éditions imaginatives, réduction de la dérive d'image pendant l'édition, support amélioré de l'édition multi-personnes avec fusion haute-fidélité, intégration native de LoRAs populaires (comme l'éclairage amélioré), capacités renforcées pour le design industriel et le remplacement de matériaux, et raisonnement géométrique amélioré permettant de générer des lignes de construction auxiliaires. C'est la version recommandée pour la plupart des usages.
Pour chaque version, vous avez le choix entre différents formats selon votre matériel :
- Version FP8 (recommandée) : le meilleur compromis qualité/performance pour les GPU avec 12-16 Go de VRAM. Environ 20 Go d'espace disque.
- Version BF16 : qualité maximale mais très lourde, pour les configurations avec au moins 24 Go de VRAM. Environ 40 Go d'espace disque.
L’équipe de Comfy.org a préparé des versions adaptées à l’utilisation avec ComfyUI qui sont disponibles au téléchargement sur Hugging Face :

Pour ce guide, nous utiliserons principalement la version FP8 de Qwen-Image-Edit-2511, qui offre le meilleur équilibre pour la majorité des utilisateurs.
Les fichiers essentiels
Pour utiliser Qwen-Image-Edit avec ComfyUI, vous aurez besoin de quatre fichiers principaux. Tous sont hébergés sur Hugging Face dans des dépôts dédiés.
- Le modèle de diffusion principal est le cœur du système d'édition. Pour Qwen-Image-Edit-2511, téléchargez
qwen_image_edit_2511_fp8mixed.safetensorsou la version FP16 depuis Hugging Face. Placez-le dansComfyUI/models/diffusion_models/.
- L'encodeur de texte :
qwen_2.5_vl_7b_fp8_scaled.safetensors. Si vous avez déjà installé Qwen-Image, vous l'avez déjà. Sinon, téléchargez-le depuis Hugging Face et placez-le dansComfyUI/models/text_encoders/.
- Le VAE :
qwen_image_vae.safetensors. Également partagé avec Qwen-Image. Téléchargez-le depuis Hugging Face si nécessaire et placez-le dansComfyUI/models/vae/.
- Le LoRA Lightning (optionnel mais recommandé) :
Qwen-Image-Edit-2511-Lightning-4steps-V1.0-bf16.safetensors. Ce fichier permet d'accélérer considérablement l'édition en réduisant le nombre d'étapes nécessaires de 40 à seulement 4, avec une qualité restant excellente. Téléchargez-le depuis Hugging Face et placez-le dansComfyUI/models/loras/.
Sources alternatives de téléchargement
Comme pour Qwen-Image, tous les fichiers sont disponibles sur Hugging Face (accès international) et ModelScope (alternative plus rapide pour l'Asie).
Les deux plateformes hébergent exactement les mêmes fichiers. Choisissez simplement celle qui offre les meilleures vitesses de téléchargement depuis votre localisation.
Organisation des fichiers
L'arborescence complète pour Qwen-Image-Edit devrait ressembler à ceci :
ComfyUI/
├── models/
│ ├── diffusion_models/
│ │ └── qwen_image_edit_2511_fp8mixed.safetensors
│ ├── text_encoders/
│ │ └── qwen_2.5_vl_7b_fp8_scaled.safetensors
│ ├── vae/
│ │ └── qwen_image_vae.safetensors
│ └── loras/
│ └── Qwen-Image-Edit-2511-Lightning-4steps-V1.0-bf16.safetensorsSi vous installez à la fois Qwen-Image et Qwen-Image-Edit, vous aurez simplement deux fichiers dans
diffusion_models/ (un pour la génération, un pour l'édition) tandis que tous les autres fichiers sont les mêmes.Une fois tous ces fichiers en place, vous êtes prêt à charger votre premier workflow d'édition.
Édition d'images avec Qwen-Image-Edit
Passons maintenant à la pratique. Vous allez découvrir comment charger et utiliser les workflows d'édition, comprendre leurs différents composants, et effectuer vos premières modifications d'images.
Charger le workflow standard
ComfyUI propose les workflows Qwen-Image-Edit directement dans ses templates officiels. Si votre installation est à jour, vous les trouverez en faisant Parcourir les Modèles et en cherchant "Qwen-Image-Edit".

Vous pouvez également télécharger directement le workflow JSON :
Une fois téléchargé, glissez-déposez simplement le fichier JSON dans l'interface ComfyUI pour le charger instantanément.
Une fois le workflow chargé, ComfyUI l’affiche avec sa série de nodes organisés en plusieurs groupes et connectés entre eux. Au premier regard, tout ca peut sembler un peu complexe. Mais ne vous laissez pas impressionner : chacun a son un rôle assez facile à comprendre et l'ensemble forme un flux logique de d’édition d'image.
Détails du workflow
Passons le workflow en revue ensemble pour voir le rôle de chaque node. Comprendre comment est structuré le workflow vous sera utile plus tard quand vous voudrez le personnaliser ou résoudre des problèmes.

A. Chargement des modèles
Les trois premiers nodes gèrent le chargement des composants essentiels (exactement comme pour Qwen-Image) :
- Charger Modèle Diffusion charge le fichier du modèle d'édition. Assurez-vous de sélectionner
qwen_image_edit_2511_fp8mixed.safetensors(ou la version que vous avez téléchargée) dans le paramètre nom unet.
- Charger CLIP charge l'encodeur de texte
qwen_2.5_vl_7b_fp8_scaled.safetensors. C'est lui qui transforme vos instructions d'édition en commandes compréhensibles par le modèle.
- Charger VAE charge
qwen_image_vae.safetensors. Le VAE est utilisé à la fois pour encoder l'image source et décoder le résultat final.
- LoraLoaderModelOnly est un quatrième node facultatif (désactivé par défaut) qui charge le LoRA Lightning qui permet des génération en seulement 4 étapes pour gagner en vitesse. Nous verrons plus loin comment l’activer.
B. Image source
C'est la différence majeure avec la génération text-to-image : au lieu de partir de zéro, vous partez d'une ou plusieurs images existantes.
- Charger Image est le node qui charge l'image que vous souhaitez modifier ou utiliser en référence. Cliquez sur le bouton pour sélectionner votre fichier. Le modèle peut travailler avec diverses résolutions, mais pour des résultats optimaux, évitez les images trop grandes (au-delà de 2048×2048). Avec le workflow de base, vous pouvez ajoutez jusqu’à 3 nodes de chargement d’images.
- Scale Image to Total Pixels (optionnel) redimensionne automatiquement votre première image à environ un million de pixels total. C'est utile pour éviter les pertes de qualité avec des images trop grandes, mais vous pouvez désactiver ce node avec
Ctrl+Bsi vous connaissez bien les dimensions de votre source.
- VAE Encode transforme votre première image en représentation latente que le modèle peut manipuler et utiliser pour créer l’image de départ. Il suffit de placer le node, le traitement est automatique et ne nécessite aucun réglage.
C. Instructions d'édition
Les prompts fonctionnent différemment de la génération pure. Ici, vous décrivez les modifications à apporter plutôt qu'une image complète.
Le workflow de base utilise deux nodes d'encodage selon vos besoins :
- TextEncodeQwenImageEditPlus (positive) est le node avancé qui permet d'ajouter jusqu'à 3 images de référence supplémentaires (ref_image_1, ref_image_2, ref_image_3) en plus de l'image principale. Ce node est essentiel pour :
- La fusion multi-personnes (combiner plusieurs visages dans une photo de groupe)
- Le transfert de vêtements ou de style (prendre un élément d'une image et l'appliquer à une autre)
- Les compositions complexes mélangeant plusieurs sources
- Le second TextEncodeQwenImageEditPlus est utilisé pour préparer un prompt négatif pour votre image. Vous pouvez laisser ces instruction vide et vous contenter d’y passer les images de réfèrences.
D. Génération et finalisation
- ModelSamplingAuraFlow configure les paramètres d'échantillonnage spécifiques à l'architecture de Qwen. Vous n'avez généralement pas besoin d'y toucher.
- CFGNorm (CFGNormalizer) : Ce node normalise le comportement du CFG pour éviter les artefacts. Quand on utilise des valeurs de CFG élevées, la magnitude du bruit prédit peut devenir trop forte, causant une sursaturation des couleurs et des détails "sur-édités". CFGNorm corrige ce problème. Vous n'avez généralement pas besoin d'y toucher.
- Edit Model Reference Method (positif et négatif) : Ces deux nodes encodent vos images de référence dans l'espace latent. Ces nodes sont essentiels pour que le modèle comprenne visuellement vos intentions d'édition
- KSampler orchestre le processus d'édition. Les paramètres importants sont :
- steps : 20 à 50 pour la version standard, 4 si vous utilisez le LoRA Lightning
- cfg : entre 2.0 et 4.0 fonctionne bien pour l'édition
- denoise : ce paramètre contrôle l'intensité de la modification (1.0 = transformation complète, 0.5 = modification légère)
- VAE Decode convertit le résultat latent en image visible.
- Enregistrer l'image Affiche l’image obtenue et permet de la sauvegarder.
Configuration de base
Avant votre première édition, ajustons quelques paramètres clés.
Dans le KSampler, les paramètres à surveiller sont :
- steps : commencez avec 40 pour la version standard. C'est un bon équilibre entre qualité et vitesse. Vous pouvez descendre à 30 pour gagner du temps avec une qualité encore correcte, ou monter à 50 pour le maximum de détails.
- cfg (Classifier-Free Guidance) : entre 2.0 et 4.0 pour l'édition. Une valeur plus élevée fait suivre vos instructions plus strictement, mais peut introduire des artefacts si vous montez trop.
- denoise : c'est le paramètre magique de l'édition. À 1.0, vous autorisez une transformation complète (utile pour les changements de style majeurs). À 0.5-0.7, vous faites des modifications plus subtiles en préservant davantage l'original. À 0.3-0.4, vous ne faites que des ajustements légers. Expérimentez avec cette valeur selon l'ampleur des modifications souhaitées.
- sampler : "euler" ou "dpmpp_2m" sont d'excellents choix. Pour l'édition avec Lightning, "res_multistep" est recommandé.
- scheduler : "simple" convient parfaitement pour commencer.
- Le seed fonctionne comme avec la génération : même seed + mêmes paramètres = même résultat. Utile pour reproduire une édition réussie ou comparer l'effet de différents paramètres.

Première édition
Le moment est venu d'effectuer votre première édition. Commençons avec quelque chose de simple mais qui illustre bien les capacités du modèle.
Chargez une image dans le node Load Image. Pour ce premier test, prenez une photo avec un sujet clair : un portrait, un objet sur fond simple, ou une scène facilement identifiable.
Dans le CLIP Text Encoder positif, entrez une instruction claire et spécifique. Quelques exemples selon votre image :
- Si vous avez un portrait : "Transform this person into an anime character in Studio Ghibli style"
- Si vous avez un objet : "Change the color to bright red"
- Si vous avez une scène : "Add snow on the ground and make it winter"
Laissez le prompt négatif vide pour l'instant.
Peut on prompter en français ?
Qwen-Image-Edit comprends relativement bien le français - mais il s’en sort souvent mieux avec des prompts en anglais. Nous recommandons donc d’utiliser l’anglaise, quitte à passer par un outil de traduction comme Deepl.
Dans le KSampler, vérifiez ces paramètres pour un bon départ :
- steps : 40
- cfg : 3.0
- denoise : 0.8 (modification significative mais pas complète)
- sampler : euler
- scheduler : simple
Cliquez sur Executer en haut à droite, ou utilisez
Ctrl+Enter (ou Cmd+Enter sur Mac).
Félicitations, vous venez d'effectuer votre première édition avec Qwen-Image-Edit ! Mais ce n'est que le début. Voyons maintenant comment accélérer drastiquement le processus.
Édition accélérée avec Lightning
Le LoRA Lightning transforme radicalement l'expérience d'édition en réduisant le nombre d'étapes nécessaires de 40 à seulement 4, tout en maintenant une qualité remarquablement proche de l'original.
Pour l'activer, activez un node LoraLoaderModelOnly dans le workflow :
- Cliquez sur le node (affiché en mauve)
- Faites
Crtl+b(Cmd+bsur mac) ou ouvrez le menu du node et faire Supprimer le contournement.
- Dans le LoraLoaderModelOnly, vérifiez que
Qwen-Image-Edit-2511-Lightning-4steps-V1.0-bf16.safetensorsest bien selectionné.
- Laissez le strength à 1.0
Maintenant, ajustez le KSampler :
- steps : 4 (au lieu de 40)
- cfg : 1.0 à 2.0 (Lightning fonctionne mieux avec des valeurs plus basses)
- sampler : res_multistep (optimisé pour Lightning)
- denoise : à 1.00 (selon l'intensité de modification souhaitée)
Avec Lightning activé, vos éditions ne prendront que 10-15 secondes sur un GPU avec 12-16 Go, et 6-10 secondes sur un GPU avec 24 Go. C'est pratiquement du temps réel, ce qui change complètement le workflow : vous pouvez itérer rapidement, tester plusieurs variations, affiner progressivement jusqu'au résultat parfait.

La différence de qualité entre 40 steps standard et 4 steps Lightning est minime dans la plupart des cas. Vous perdez quelques détails très fins dans les scènes extrêmement complexes, mais pour l'édition quotidienne, Lightning est largement suffisant et bien plus agréable à utiliser.
Consultez également notre tutoriel sur l’utilisation de Qwen-Image Lightning pour mieux comprendre l’utilisation de ce LoRA.
Troubleshooting et problèmes courants
Même avec une installation correcte, vous rencontrerez parfois des problèmes. Voici comment les identifier et les résoudre.
Problèmes de qualité
L'édition est trop timide / rien ne change : Plusieurs causes possibles et leurs solutions (attention, ces causes peuvent se combiner).
- Le denoise est trop bas, montez-le progressivement. Commencez à 0.5, puis 0.6, puis 0.7 jusqu'à obtenir l'effet désiré. Ne sautez pas directement à 1.0, progressez par paliers.
- Le CFG est trop bas, augmentez-le à 3.0-4.0. Un CFG trop faible donne au modèle trop de liberté et il peut ignorer vos instructions.
- Le Prompt est trop vague, soyez plus précis. "Change the color" → "Change the shirt color to bright red". Plus vous êtes spécifique, meilleurs sont les résultats.
L'édition est trop forte / l'image est déformée : L'inverse du problème précédent.
- Le denoise est trop élevé, baissez-le. Pour des modifications subtiles, 0.4-0.6 suffit généralement. Gardez 0.8+ pour les transformations majeures uniquement.
- Le CFG est trop élevé, redescendez à 2.5-3.0. Au-delà de 4.5, même avec CFGNorm, vous risquez des artefacts.
- Le CFGNorm est mal réglé, baissez-le à 0.7-0.8. C'est souvent la cause de sursaturation ou de détails "sur-cuits".
Le texte généré est flou ou illisible : Les éditions de texte demandent des paramètres spécifiques.
- Utilisez un CFG plus élevé (3.5-4.0) pour le texte. Ça aide à maintenir la netteté des caractères. Assurez-vous que votre prompt spécifie exactement le texte voulu entre guillemets : "Change the sign text to 'OPEN'".
- Si le texte reste flou, générez à plus haute résolution puis upscale avec ESRGAN. Parfois le texte nécessite simplement plus de pixels pour être net. Évitez les denoise trop élevés pour l'édition de texte (restez sous 0.6) car ça peut introduire du flou.
Les personnages perdent leur identité : Critique pour l'édition multi-images ou les transformations stylistiques.
- Baissez le denoise si les visages changent trop. Pour préserver l'identité, restez entre 0.5 et 0.7 maximum.
- Utilisez des prompts qui mentionnent explicitement "keep the person's identity" ou "preserve facial features".
- Pour le multi-images, assurez-vous que vos images sources ont des angles et éclairages similaires. Des différences trop marquées rendent difficile le maintien de la cohérence.
Problèmes techniques
Erreur "Out of VRAM" / crash GPU : Le problème le plus fréquent avec Qwen-Image-Edit.
- Fermez toutes les autres applications. Vérifiez avec un gestionnaire de tâches ce qui consomme de la VRAM. Les navigateurs peuvent en utiliser plusieurs Go.
- Réduisez la résolution de vos images sources. Le node Scale Image to Total Pixels devrait être activé. Si ça ne suffit pas, pré-redimensionnez manuellement vos images à 1024×1024 ou moins.
- Si vous utilisez la version BF16, passez à FP8. Ça divise par deux la VRAM nécessaire avec une perte de qualité imperceptible. Si ça ne suffit toujours pas, explorez les versions quantifiées.
- Désactivez les autres nodes gourmands dans votre workflow. Si vous avez plusieurs upscalers ou post-traitements en chaîne, désactivez-en certains temporairement.
"Missing nodes" lors du chargement du workflow : Votre ComfyUI n'est pas à jour ou il manque des composants.
- Mettez à jour ComfyUI vers la dernière version nightly. Les nodes pour Qwen-Image-Edit n'existaient pas dans les anciennes versions. Utilisez
git pulldans le dossier ComfyUI ou le ComfyUI Manager pour mettre à jour.
- Vérifiez que tous les fichiers modèles sont bien placés dans les bons dossiers. Un modèle manquant peut empêcher certains nodes de se charger. Relancez ComfyUI et observez la console de démarrage pour identifier les erreurs de chargement.
Les générations sont très lentes :
- Vérifiez que vous utilisez bien le GPU et non le CPU. Dans les paramètres ComfyUI, confirmez que le GPU est sélectionné. Un calcul CPU peut être 10-20x plus lent.
- Assurez-vous que rien d'autre n'utilise le GPU en arrière-plan. Certains jeux ou applications continuent d'utiliser le GPU même fermés. Un redémarrage peut aider.
- Activez le LoRA Lightning si ce n'est pas déjà fait. Passer de 40 à 4 steps est le gain de vitesse le plus important que vous pouvez obtenir. Vérifiez également que votre version des drivers GPU est récente.
L'édition professionnelle accessible
Si vous avez suivi ce guide, vous disposez maintenant d'un outil d'édition d'images qui rivalise avec les meilleures solutions commerciales, mais qui tourne entièrement sur votre machine et vous appartient complètement.
Qwen-Image-Edit représente un tournant dans l'accessibilité des outils d'édition professionnels. Là où des solutions comme Adobe
Ressources et communauté
Vous avez maintenant une base solide pour travailler avec Qwen-Image-Edit. Mais l'apprentissage continue, et la communauté est là pour vous accompagner.
Documentation officielle
GitHub Qwen-Image : https://github.com/QwenLM/Qwen-Image - Le repository officiel du projet avec le code source, les notes de version, et les issues pour signaler des bugs. C'est également là que sont annoncées les nouvelles versions et fonctionnalités.
Hugging Face Model Card : https://huggingface.co/Qwen/Qwen-Image-Edit et https://huggingface.co/Qwen/Qwen-Image-Edit-2511 - Fiches techniques complètes avec benchmarks, exemples de résultats, et détails d'entraînement. Consultez les Model Cards pour comprendre les capacités et limitations spécifiques à chaque version.
ComfyUI Qwen-Image-Edit : https://huggingface.co/Comfy-Org/Qwen-Image-Edit_ComfyUI - Version optimisée pour ComfyUI avec tous les fichiers nécessaires. C'est votre source principale pour les téléchargements.
Documentation ComfyUI : https://docs.comfy.org - Documentation officielle de ComfyUI avec tutoriels et références des nodes. La section sur Qwen-Image-Edit est régulièrement mise à jour avec de nouveaux exemples et workflows.
Tutoriels officiels : https://docs.comfy.org/tutorials/image/qwen/qwen-image-edit et https://docs.comfy.org/tutorials/image/qwen/qwen-image-edit-2511 - Guides officiels ComfyUI avec workflows pas-à-pas et explications détaillées.
Tech Report & Blog : Qwen-Image Tech Report PDF et Blog Qwen-Image-Edit-2511 - Pour comprendre en profondeur l'architecture, les méthodes d'entraînement, et les résultats de recherche. Lecture technique mais fascinante.
Communauté et support
Discord GenIArt : Le serveur GenIArt est LA communauté francophone dédiée à l'IA générative. Vous y trouverez de l'aide, des workflows partagés, et des discussions techniques. L'ambiance est bienveillante et les membres sont actifs pour aider les débutants.
Reddit ComfyUI : La communauté r/comfyui partage régulièrement des workflows, tutoriels, et découvertes. Si vous parlez anglais, c'est un excellent endroit pour trouver de l'aide technique et voir ce que font les autres utilisateurs. Les weekly threads sont particulièrement utiles pour poser des questions.
Reddit StableDiffusion : r/StableDiffusion couvre un spectre plus large de la génération d'images par IA. Vous y trouverez des discussions sur les nouveaux modèles, des comparaisons techniques, et des techniques avancées. Moins spécifique à ComfyUI mais très actif.
YouTube - AI & Pixels : https://www.youtube.com/@aiandpixels - La chaîne AI & Pixels partage énormément d'infos et d'astuces, avec plusieurs vidéos dédiées à ComfyUI et Qwen-Image-Edit. Les tutoriels vidéo sont parfaits pour comprendre visuellement les workflows complexes.
ComfyUI Official Discord : discord.com/invite/comfyorg - Le Discord officiel de ComfyUI. Communauté internationale, support direct des développeurs, annonces des nouvelles versions. Incontournable si vous utilisez ComfyUI sérieusement.
Veille et évolutions
L'écosystème Qwen-Image-Edit évolue rapidement. Restez informés pour ne pas manquer les nouvelles fonctionnalités et optimisations.
Qwen Research : https://qwen.ai/research - Annonces officielles des nouvelles versions et fonctionnalités de tous les modèles Qwen. C'est là que vous apprendrez en premier les futures améliorations de Qwen-Image-Edit.
ComfyUI Blog : https://blog.comfy.org/ - Mises à jour, nouvelles fonctionnalités, et informations diverses sur ComfyUI. Les intégrations de nouveaux modèles comme Qwen-Image-Edit y sont détaillées.
Twitter/X : Suivez @Alibaba_Qwen pour les annonces officielles Qwen, @ComfyUI pour les news ComfyUI, et notre compte @Stabletom pour des analyses et tutoriels en français. La veille Twitter reste un excellent moyen de capter les tendances émergentes.
Hugging Face Papers : https://huggingface.co/papers - Les nouveaux papiers de recherche sur la génération et l'édition d'images y sont publiés quotidiennement. C'est souvent là qu'apparaissent les techniques qui seront intégrées dans les futures versions des modèles.
Ecrit par


