Stable Tom
Passioné d’IA et de génération d’images
Sommaire
- Flux.1 Kontext [dev] dans ComfyUI
- Prérequis
- Intégration de Flux.1 Kontext [dev]
- Charger le workflow
- Premiers tests
- Comprendre la structure de base
- Bonnes pratiques et limitations
- Techniques de prompt
- 1. Modifications simples
- 2. Transferts de style
- 3. Cohérence des personnages
- 4. Édition de texte
- Problèmes fréquents et solutions
- 1. Le personnage change trop
- 2. La position ou l’échelle du sujet change
- 3. Le style est mal interprété
![Flux Kontext [dev] dans ComfyUI](https://www.notion.so/image/attachment:3d4adedf-468d-474d-a65e-c41f32447dba:fluxkontextdevcomfyui.jpg?table=block&id=21f3cf2f-141e-8080-99bc-c79dc79135a7&cache=v2)
Depuis sa sortie fin Mai 2025, FLUX.1 Kontext suscite un fort engouement dans la communauté IA. Ce modèle d’édition d’image de nouvelle génération, développé par Black Forest Labs, se distingue par sa capacité à modifier des images existantes à partir d’instructions textuelles, tout en préservant les éléments clés de la scène.
La version [dev] sortie ce 26 Juin est premier modèle multimodal contextuel à être distribué en open-weight, une avancée majeure pour les utilisateurs souhaitant travailler localement ou intégrer le modèle dans leurs propres outils.
Flux.1 Kontext [dev] dans ComfyUI
ComfyUI s’est imposé comme l’une des solutions les plus populaires pour exploiter les modèles de diffusion grâce à son interface visuelle modulaire et sa grande flexibilité.
Bonne nouvelle : FLUX.1 Kontext [dev] bénéficie d’un support natif "Day 0" dans ComfyUI, avec plusieurs templates prêts à l’emploi, ce qui en fait une excellente porte d’entrée pour tester ses fonctionnalités.
Dans ce tutoriel, nous allons voir comment installer et utiliser FLUX.1 Kontext [dev] dans ComfyUI, explorer ses capacités d’édition, et vous guider vers les premiers tests concrets.
Prérequis
Avant de commencer, assurez-vous de disposer de l'environnement adapté pour faire tourner FLUX.1 Kontext [dev] dans ComfyUI.
- ComfyUI : si ce n’est pas encore fait, suivez le guide d’installation. Une version à jour (minimum v0.3.42) est nécessaire pour bénéficier du support natif du modèle.
- GPU : FLUX.1 Kontext [dev] est un modèle de 12 milliards de paramètres. Il est optimisé pour tourner localement sur des GPU modernes (RTX 3090, 4080, 4090, etc.). Un minimum de 12 Go de VRAM est conseillé pour une expérience fluide.
- Espace disque : prévoyez environ 10 à 15 Go d’espace libre pour les poids du modèle et les ressources associées.
- Connexion internet : nécessaire pour télécharger les poids depuis HuggingFace et pour charger certains templates ComfyUI depuis le dépôt officiel.
Une fois ces éléments en place, vous serez prêt à utiliser FLUX.1 Kontext [dev] sur votre ordinateur avec ComfyUI.
Intégration de Flux.1 Kontext [dev]
Téléchargement automatique
ComfyUI va télécharger automatiquement le modèle et les diffèrents fichiers nécessaires à ton utilisation quand vous chargez un workflow prévu à cet effet et que le chargement distant est activé (comme c’est le cas dans une installation standard).
Si vous préférez, vous pouvez aussi télécharger FLUX.1 Kontext [dev] et les différents fichiers depuis HuggingFace et le placer dans les dossiers de ComfyUI :
📂 ComfyUI/
├── 📂 models/
│ ├── 📂 diffusion_models/
│ │ └── flux1-dev-kontext_fp8_scaled.safetensors
│ ├── 📂 vae/
│ │ └── ae.safetensor
│ └── 📂 text_encoders/
│ ├── clip_l.safetensors
│ ├── t5xxl_fp16.safetensors
│ └── t5xxl_fp8_e4m3fn_scaled.safetensors
Charger le workflow
Pour démarrer, il vous suffit de Charger un modèle de workflow ComfyUI pour FLUX.1 Kontext :

- Depuis l’interface de ComfyUI, ouvrez Flux de Travail → Parcourir les modèles
- Sélectionnez un template proposé pour Flux.1 Kontext [dev]
Une fois le modèle de workflow sélectionné, ComfyUI va vous proposer de télécharger les fichiers et modèles nécessaires.
Validez l’ensemble des téléchargement.

Premiers tests
ComfyUI propose donc plusieurs workflows préconfigurés pour tester rapidement les capacités de FLUX.1 Kontext [dev]. Le plus simple pour débuter est le template "Flux Kontext Dev (Basic)", qui permet de modifier une image existante à l’aide d’un prompt textuel.
Voici comment le tester :
- Charger le workflow depuis le menu "Load" (icône de dossier).
- Importer une image dans le node "Load Image" ou équivalent.
- Entrer une instruction textuelle dans le node de prompt (ex. : "replace the backpack with a cat").
- Lancer le workflow.
Comprendre la structure de base
Le workflow "Flux Kontext Dev (Basic)" est composé de plusieurs blocs clés :

- Load Diffusion Model : charge le modèle depuis le fichier safetensors de FLUX.1 Kontext [dev].
- Dual Clip Loader : charge les fichiers CLIP pour l’encodage des textes.
- Load VAE : charge le VAE Flux.
- Load Image : permet de charger l’image à éditer (JPEG, PNG, etc.).
- CLIP Text Encode (Prompt & Negative Prompt) : encode les instructions textuelles et les prompts négatifs.
Dans la partie Conditionning, différents Nodes sont utilisé pour combiner l’image et le prompt textuel avant de les passer au Sampler qui va permettre l’inférence de l’image à l’aide du modèle.
Bonnes pratiques et limitations
- Types de modification : le modèle gère bien les modifications générales (objets, arrière-plans, vêtements, etc.), mais n’est pas encore adapté à l’inpainting fin ou aux corrections ultra-localisées.
Le modèle ne permet en effet pas encore d’éditer des zones précises à la manière d’un masque ou d’un inpainting contrôlé, mais cela pourrait évoluer avec l’ajout de nodes ou extensions spécifiques à l’avenir.
- Prompts : utilisez des instructions claires et spécifiques. Ex. : "make the shirt red", "add a cat on the table". Le style de l’instruction influence beaucoup le résultat.
- Édition successive : vous pouvez enchaîner plusieurs cycles d’édition pour affiner le résultat, en réinjectant l’image générée comme nouvelle base.
- Variabilité : changer le seed permet de générer des variantes. Idéal pour tester plusieurs approches à partir du même prompt.
Techniques de prompt
FLUX.1 Kontext [dev] comprend parfaitement les instructions en français. Cependant, certaines structures de formulation donnent de meilleurs résultats. Voici les techniques de prompt recommandées par l'équipe de ComfyUI, basées sur quatre principes clés :
- Soyez précis et clair : évitez les termes vagues. Utilisez des descriptions détaillées, par exemple "jeune homme en costume bleu foncé" plutôt que "homme élégant".
- Procédez étape par étape : pour des modifications complexes, décomposez l'action en plusieurs éditions simples.
- Indiquez ce qui doit être conservé : formulez explicitement les éléments à préserver. Par exemple : "en gardant la même coiffure et expression du visage".
- Privilégiez des verbes d'action concrets : comme "changer", "remplacer", "ajouter", plutôt que "transformer" qui peut induire une modification plus large ou ambiguë.
1. Modifications simples
Formulez des demandes claires, en une seule phrase :
- "Change la couleur de la voiture en rouge"
- "Fais passer le ciel à un temps nuageux"
- "Ajoute une écharpe verte au personnage"
Avec contrainte stylistique :
- "Change en plein jour tout en conservant le style original de la peinture"
2. Transferts de style
Trois approches efficaces pour guider la transformation stylistique :
- Nom explicite du style : "Appliquer un style art déco"
- Description des caractéristiques visuelles : "Peinture à l'huile avec des coups de pinceau visibles et texture épaisse"
- Préservation de la composition : "Conserve la composition originale en passant au style Bauhaus"
3. Cohérence des personnages
Pour maintenir l'identité d’un sujet visuel :
- Désignation précise : "la femme aux cheveux noirs courts" au lieu de "elle"
- Spécification des éléments constants : "en gardant le visage, la coiffure et l'expression"
- Édition séquentielle : commencer par l’arrière-plan avant de modifier la posture ou les accessoires
4. Édition de texte
Le modèle peut aussi modifier des textes visibles à condition d’être explicite :
- Encadrez les mots à remplacer entre guillemets : "Remplace 'bonheur' par 'BFL'"
- Ajoutez un contexte de style : "en gardant la police et la disposition d’origine"
Problèmes fréquents et solutions
Même avec de bons prompts, certains résultats peuvent être inattendus. Voici trois cas courants et comment les corriger :
1. Le personnage change trop
❌ Prompt à éviter : "Transforme cette femme en Viking"
Ce type d’instruction provoque un changement global, y compris des traits du visage.
✅ Mieux formuler : "Change ses vêtements pour une tenue de guerrière viking tout en gardant ses traits du visage et sa coiffure"
2. La position ou l’échelle du sujet change
❌ Prompt à éviter : "Place-le sur une plage"
Cela risque de repositionner complètement le sujet ou d’altérer sa pose.
✅ Mieux formuler : "Remplace l’arrière-plan par une plage tout en gardant le personnage exactement dans la même position, taille et posture"
3. Le style est mal interprété
❌ Prompt à éviter : "Fais un croquis"
Cela peut générer un résultat vague ou incohérent.
✅ Mieux formuler : "Convertis l’image en croquis au crayon avec des lignes de graphite naturelles, du hachurage croisé et une texture de papier visible"
Ces ajustements permettent d’améliorer la précision des réponses et de tirer pleinement parti des capacités contextuelles du modèle.
FLUX.1 Kontext [dev] ouvre une nouvelle ère pour l’édition d’images par IA : accessible, modulaire, puissant et entièrement exploitable en local grâce à ComfyUI. Que vous soyez artiste, développeur ou simplement curieux, ce modèle offre un excellent terrain d’expérimentation.
Grâce aux workflows prévus dans ComfyUI, à la qualité du guidage par le langage et à la possibilité d’affiner les résultats étape par étape, chacun peut explorer des cas d’usage créatifs ou techniques avec un très haut niveau de contrôle.
N’hésitez pas à tester les différents templates, à créer vos propres graphes, et à partager vos retours ou créations avec la communauté.
Ecrit par