Stable Tom
Passioné d’IA et de génération d’images
Sommaire
- Kontext, la génération contextuelle
- Techniques de prompting
- Éditions simples et ciblées
- Les bases de l’édition
- Instructions précises et localisées
- Repères visuels explicites
- Éditions avancées et contrôle visuel
- Modifier les textes
- Édition itérative
- Contrôler la composition
- Éditions complexes et stylisation
- Transformations complexes
- Transfert de style
- Debug et erreurs fréquentes
- Où et Comment utiliser FLUX.1 Kontext ?
- Utilisation locale
- Utilisation via services en ligne
- Intégration dans des applications

FLUX.1 Kontext est un modèle de génération et édition d’images par IA lancé par Black Forest Labs en juin 2025.
Disponible en 3 version ([dev], [pro] et [max]) ce modèle a rapidement été salué pour sa qualité de rendu, sa cohérence visuelle, et sa rapidité d’inférence.
Disponible en Open-Weight, la version [dev] s’impose aujourd’hui comme une alternative crédible aux solutions privées comme GPT-Image-1 (OpenAI) ou Imagen 4 (Google), tout en étant exécutable localement sur GPU grand public.
Ce guide vous propose un tour d’horizon des bonnes pratiques de rédaction de prompts pour tirer le meilleur de FLUX.1 Kontext, en s’appuyant sur les recommandations officielles de BFL, des cas d’usage concrets et les retours de la communauté.
Ce guide vous aidera à structurer vos requêtes pour des résultats efficaces, cohérents et contrôlés. : apprendre à écrire des prompts efficaces pour exploiter pleinement les capacités des modèles Kontext.
Kontext, la génération contextuelle
FLUX.1 Kontext repose sur une architecture de type diffusion transformer, optimisée par une méthode de flow matching en espace latent. Il s’agit d’un modèle multimodal capable de combiner texte et image comme entrée pour produire une image éditée avec précision, en tenant compte du contexte visuel.
Contrairement à un générateur d’image ex nihilo, Kontext est conçu pour modifier des visuels existants de manière ciblée : changer un élément, appliquer un style, intégrer du texte ou transformer un décor tout en préservant la structure, les personnages ou les détails initiaux.
Parmi ses points forts :
- Édition non-destructive : seules les zones concernées par l’instruction sont modifiées.
- Cohérence de personnage : l’apparence, les traits, la pose et l’expression sont conservés à travers plusieurs éditions.
- Fidélité au prompt : même les consignes complexes sont comprises avec précision.
- Temps d’inférence réduit : environ 2 secondes par image sur GPU grand public optimisé.
Ce mode de fonctionnement rend Kontext particulièrement adapté aux workflows créatifs itératifs, où l’on affine visuellement une image étape par étape avec un haut degré de contrôle.
Techniques de prompting
Éditions simples et ciblées
Les bases de l’édition
FLUX.1 Kontext est très à l’aise pour ajouter, supprimer ou remplacer des objets visuellement identifiables.
Pour l’utiliser, il suffit donc d’écrire une instruction indiquant la modification à apporter à l’image. Pour les modifications d’objects simple, vous pouvez vraiment commencer avec un prompt court et simple en language naturel comme dans les exemples ci-dessous.




Prompter en Français ?
Bien que FLUX.1 Kontext comprenne plusieurs langues, le modèle a été principalement entraîné sur des données en anglais.
Pour obtenir des résultats cohérents et précis, il reste recommandé de rédiger vos prompts en anglais - même si le Français fonctionne très bien pour des instructions simples et courtes.
Afin de faciliter la lecture de ce guide, tous les exemples qui suivent sont présentés en français. Cependant, dans la pratique, les prompts ont parfois été traduits avec DeepL avant d’être utilisés ou testés.
👉 N'hésitez donc pas à écrire en français, mais pensez à traduire en anglais avant de générer, surtout pour les requêtes complexes ou stylistiques.
Instructions précises et localisées
Les prompts doivent désigner clairement l’objet ou la personne visée par la transformation, tout en précisant les éléments à ne pas modifier.
Plus une instruction est ciblée, plus le modèle sera en mesure de générer un résultat fidèle à vos attentes. Cela permet d’éviter des modifications non souhaitées sur d’autres parties de l’image.


Le but est de guider clairement le modèle pour qu’il comprenne quels éléments modifier sans perturber l’ensemble de l’image. Cela inclut souvent la tenue, l’attitude, l’expression ou les accessoires, tout en préservant l’identité, le cadrage et la lumière.


Repères visuels explicites
Quand plusieurs éléments similaires coexistent dans une image, précisez leur position, leur attribut distinctif ou leur relation spatiale.
Cela aide le modèle à bien identifier la cible de votre instruction et à éviter toute confusion entre des sujets proches visuellement. Plus la description est précise, plus la modification sera ciblée.




Éditions avancées et contrôle visuel
Modifier les textes
FLUX.1 Kontext permet de modifier du texte visible dans l’image, à condition d’être précis dans la formulation.
Cette fonctionnalité est particulièrement utile pour retoucher des enseignes, des panneaux, des étiquettes ou tout autre élément typographique intégré à l’image.
Toutefois, elle nécessite une formulation explicite pour éviter toute confusion entre le texte cible et d’éventuels éléments visuellement similaires.


Conseils pour modifier les textes :
- Utiliser des mots de longueur comparable.
- Mentionner le style de police ou d’alignement si important.
- Employer des guillemets pour éviter les ambiguïtés : « remplace “un mot” par “un autre” ».
Édition itérative
FLUX.1 Kontext excelle dans l’édition en plusieurs étapes, tout en maintenant l’identité visuelle du sujet.
Cette fonctionnalité permet de construire des suites de transformations complexes tout en assurant la continuité visuelle entre chaque version. Lors des itération, il faut penser à répéter systématiquement ce que l’on souhaite conserver à chaque étape, que ce soit le visage, la posture, les vêtements ou la lumière.






- Formulations utiles : « conserve le même visage », « même posture et éclairage », « ne modifie pas les vêtements ».
- Cette technique est idéale pour les portraits récurrents, avatars ou personnages illustrés sur plusieurs scènes.
Contrôler la composition
Pour maintenir la stabilité visuelle, il ne suffit pas de mentionner ce qui doit être conservé : il faut également structurer les prompts avec des repères spatiaux, décrire les relations entre les objets, et tirer parti des références directionnelles (avant-plan, arrière-plan, centre, bord gauche…).
FLUX.1 Kontext analyse l’image comme un tout, et peut ajuster la position ou l’éclairage de façon globale si les consignes sont ambiguës ou trop ouvertes.
Pensez aussi à introduire des marqueurs d’intention, comme « composition inchangée », « vue fixe » ou « angle identique ». Enfin, il peut être utile de verrouiller l’équilibre de l’image en décrivant la symétrie, l’alignement ou le point focal à conserver.
Exemples : « conserve le cadrage et la position de la caméra », « garde la perspective frontale et le flou d’arrière-plan », « ne modifie pas l’orientation du regard »,…




Éditions complexes et stylisation
Transformations complexes
Nous l’avons vu, FLUX.1 Kontext est particulièrement performant lorsqu’on procède étape par étape avec des instructions claires.
Ca permet des transformations complexes impliquant plusieurs modifications successives, souvent liées entre elles, pour créer une nouvelle scène à partir d’une image existante.
Exemple d’enchaînement de transformations :




Transfert de style
Kontext peut appliquer un style visuel à une image via deux approches :
Par texte : en précisant un style artistique ou une référence culturelle bien connue (ex. : « dans le style de BD de Moebius », « illustration manga années 90 », « style bande dessinée franco-belge », « aquarelle japonaise minimaliste »). Il est souvent utile de combiner cette mention avec des attributs descriptifs tels que « palette pastel », « traits noirs marqués » ou « textures granuleuses »




Par image de référence : en ajoutant un second visuel d’entrée contenant le style souhaité (peinture, affiche, photographie, texture, etc.). Ce visuel sert alors de source stylistique, que le modèle tentera de transférer à l’image principale tout en respectant la scène et les éléments d’origine.




Comment envoyer deux images à FLUX.1 Kontext ?
- Via ComfyUI : les deux images doivent être combinées horizontalement à l'aide du node
Image Stitch
(ouConcat Image
selon les versions). Chargez chaque image avec un nodeLoadImage
, puis utilisezImage Stitch
pour créer une seule image d'entrée où la première image est l'image source, et la seconde correspond au style ou à l'instruction visuelle. C’est la méthode implémentée dans le modèle de workflow Flux.1 Kontext Dev Grouped Workflow disponible dans la bibliothèque ComfyUI.
- Via l’API Replicate ou FAL : certains endpoints permettent d’ajouter un champ
style_image
oureference_image
. Vérifiez les noms des paramètres dans la documentation de l’API ou l’exemple de code fourni.
Conseils pour éviter les problèmes de cohérence ou d’application de style
- Si l’identité visuelle du personnage change trop : préciser « garde le même visage », « même personnage », « ne modifie pas les traits ».
- Si le style ne s’applique pas correctement :
- Ajouter des précisions stylistiques dans le prompt (ex. : « traits fins au pinceau », « palette pastel baveuse »).
- Nommer un artiste ou un courant bien connu (ex. : Klimt, Ukiyo-e, Ghibli).
Debug et erreurs fréquentes
Même si FLUX.1 Kontext est robuste, il peut arriver que le résultat ne réponde pas aux attentes. La génération par IA reste sensible à la formulation des instructions, et certains effets inattendus peuvent survenir. Heureusement, plusieurs ajustements simples permettent d’améliorer le rendu.
Quand le résultat ne correspond pas aux attentes
- Reformulez le prompt pour plus de clarté et de concision.
- Privilégiez une approche itérative, en découpant les modifications en plusieurs étapes successives.
- Réutilisez l’image générée comme point de départ pour une nouvelle édition avec la même consigne.
Cas typiques et solutions :
- Identité instable : le personnage change trop visiblement → Ajoutez des indications telles que « garde la même personne », « conserve les traits du visage », ou « même personnage ».
- Composition modifiée de manière non souhaitée : le décor ou le cadrage change sans raison → Spécifiez « garde le même arrière-plan », « même cadrage », ou « ne modifie pas l’éclairage ».
- Style non appliqué ou incohérent : le style attendu n’est pas respecté → Utilisez des références explicites (« dans le style de Klimt », « peinture à l’huile expressionniste ») et précisez les attributs visuels (ex. : « contours épais, textures granuleuses », « palette monochrome »).
Où et Comment utiliser FLUX.1 Kontext ?
FLUX.1 Kontext [dev] peut être utilisé dans plusieurs environnements selon vos préférences techniques et vos besoins en performance ou accessibilité. Il est disponible à la fois en local pour une utilisation libre et personnalisée, et en ligne pour un accès instantané via API ou interface graphique.
Utilisation locale
Le modèle est disponible sur Hugging Face et fonctionne avec des outils comme ComfyUI, Diffuser ou TenserRT.
👉 Recommandé : ComfyUI avec GPU avec 12–24 Go de VRAM.
Utilisation via services en ligne
Pour un usage immédiat sans installation :
- Replicate, Together.ai, FAL : API prêtes à l’emploi.
- DataCrunch, RunDiffusion, Runway : génération à la demande.
Intégration dans des applications
Des outils comme Dzine AI, Freepik ou Recraft AI intègrent également FLUX Kontext pour éditer ou styliser des visuels sans coder.
Ces intégrations permettent aux designers, créateurs de contenu et développeurs de tirer parti du modèle sans passer par l’installation technique.

FLUX.1 Kontext s’impose comme un modèle de référence pour l’édition d’image contextuelle. Son ouverture, sa rapidité et sa précision en font un outil puissant pour les créateurs, designers et développeurs souhaitant enrichir ou transformer visuellement des contenus existants.
Que ce soit pour des modifications simples, des stylisations ambitieuses ou des retouches fines, sa capacité à maintenir la cohérence et à suivre les consignes en fait un modèle à la fois fiable et flexible.
Nous vous encourageons à expérimenter, affiner vos prompts, et partager vos workflows avec la communauté.
Ecrit par