FLUX.2
Tout ce qu'il faut savoir pour comprendre et utiliser l'IA de FLUX.2
Created Time
modele IMG
modele IMG
FLUX.2 est la nouvelle génération de modèles d’IA générative de Black Forest Labs, offrant une qualité photoréaliste de pointe, une gestion inédite de références multiples et des capacités d'édition avancées, disponible via API et en poids ouverts.

FLUX.2 IA
Qu'est-ce que FLUX.2 ?Qui est derrière FLUX.2 ?Comment utiliser FLUX.2 ?Accès en ligneInstallation en localePrompter FLUX.2Les différentes versions de FLUX.2Versions officiellesFLUX.2 [pro]FLUX.2 [dev]FLUX.2 [flex]FLUX.2 [klein]Versions complémentairesImages générées avec FLUX.2FLUX.2 en détailsPoints fortsArchitecture et détails techniquesPerformances et benchmarksAccessibilité & licencesTarification et PrixLicence ouverteArticles et Tutoriels Flux.2
L’Actualités de Flux.2

Flux.2 est là
24/11/25 - Black Forest Labs a annoncé et déployé Flux.2
→ En savoir plus

Le Nouveau Flux arrive
11/11/25 - Les rumeurs s'intensifient autour de la prochaine version du modèle de génération d'images de Black Forest Labs.
→ En savoir plus
Qu'est-ce que FLUX.2 ?
FLUX.2 représente la deuxième génération de la famille de modèles d'IA générative de Black Forest Labs. Après FLUX.1, qui avait déjà marqué les esprits par sa qualité de rendu, FLUX.2 pousse la technologie un cran plus loin en unifiant génération et édition d'images dans une seule architecture. Ces nouveaux modèles sont capables de produire des images jusqu'à 4 mégapixels avec un réalisme photographique impressionnant, de gérer simultanément jusqu'à 10 images de référence pour maintenir la cohérence des personnages ou des styles, et de rendre du texte complexe de manière fiable.
Ce qui distingue FLUX.2, c'est aussi sa capacité à comprendre des prompts structurés et complexes, à respecter l'éclairage et la physique du monde réel, et à permettre une correspondance exacte des couleurs via des codes hexadécimaux. Autant de fonctionnalités qui en font un outil pensé pour des usages professionnels, que ce soit en marketing, en design UI/UX, en production créative ou en e-commerce. Et tout ça en moins de 10 secondes par génération.
Black Forest Labs propose quatre variantes du modèle pour répondre à différents besoins : FLUX.2 [pro] pour la qualité maximale, [flex] pour le contrôle total des paramètres, [dev] en poids ouverts pour la communauté, et [klein] à venir en version distillée sous licence Apache 2.0. Cette approche hybride combinant modèles fermés performants et versions ouvertes reflète la philosophie "open core" du studio.
Qui est derrière FLUX.2 ?
Aux commandes, on retrouve Black Forest Labs (BFL), une start-up basée à Fribourg en Allemagne et à San Francisco. L'équipe est loin d'être novice : elle a été fondée en 2024 par des figures emblématiques du secteur, notamment Robin Rombach, Andreas Blattmann et Patrick Esser. Ce sont déjà eux qui, alors chez Stability AI, avaient participé à la création du célèbre Stable Diffusion (avant de créer la surprise avec FLUX.1).
BFL se présente un peu comme les “rebelles" de l'industrie avec une philosophie "Open Core". Leur mission est de maintenir l'innovation ouverte et durable. Ils cherchent à offrir le meilleur des deux mondes : des modèles propriétaires ultra-performants pour les entreprises (comme Adobe ou Meta) et des versions aux poids ouverts accessibles aux chercheurs et créatifs indépendants.
Comment utiliser FLUX.2 ?
Accès en ligne
La façon la plus simple de tester FLUX.2 est de passer par le BFL Playground, accessible sur playground.bfl.ai. À l'inscription, vous recevez 50 crédits gratuits pour expérimenter, et l'interface est pensée pour être intuitive même si vous débutez avec les outils de génération d'images. Il suffit d'entrer votre prompt dans le champ prévu, de sélectionner la variante du modèle que vous souhaitez utiliser (pro, flex ou dev selon ce qui est disponible), et de lancer la génération. Le Playground propose aussi des fonctionnalités d'édition comme l'inpainting ou l'outpainting, ainsi que le support multi-références qui permet d'uploader vos images de référence avant de générer.
Pour ceux qui préfèrent d'autres interfaces, FLUX.2 est également disponible dès le jour de sortie sur plusieurs plateformes tierces. Des services comme Dzine, getimg.ai, Replicate ou FAL proposent leurs propres interfaces pour accéder aux modèles, souvent avec leurs propres systèmes de tarification. Vous pouvez choisir la plateforme dont l'interface vous convient le mieux ou qui s'intègre avec vos outils existants.
Installation en locale
Pour ceux qui souhaitent héberger le modèle eux-mêmes, FLUX.2 [dev] est disponible en téléchargement sur Hugging Face sous le dépôt black-forest-labs/FLUX.2-dev. Avec ses 32 milliards de paramètres, ce n'est pas un modèle léger - la version complète nécessite environ 90 Go de VRAM. Mais Black Forest Labs, en collaboration avec NVIDIA, a développé une implémentation quantifiée en FP8 qui réduit les besoins de 40% tout en maintenant une qualité comparable. Cette optimisation rend le modèle accessible sur une RTX 4090, ce qui ouvre la porte à bien plus d'utilisateurs.
L'installation passe généralement par ComfyUI, qui propose déjà des templates dédiés à FLUX.2 avec les optimisations pour GPU NVIDIA RTX. La bibliothèque Diffusers de Hugging Face supporte également FLUX.2, permettant une intégration plus simple dans des pipelines Python. Le nouveau VAE (autoencodeur variationnel) de FLUX.2 est lui aussi disponible sous licence Apache 2.0 sur Hugging Face pour ceux qui voudraient expérimenter.
Prompter FLUX.2
FLUX.2 est parfaitement capable de suivre des prompts structurés et détaillés. Contrairement aux modèles d’anciennes générations modèles qui fonctionnent mieux avec des descriptions courtes, FLUX.2 adore de prompts précis qui décrivent non seulement le sujet principal mais aussi l'éclairage, la composition, les textures et l'ambiance. Par exemple, plutôt que "un chat sur un canapé", essayez "Un chat tigré orange au pelage duveteux se prélassant sur un canapé moderne en velours gris, la lumière de l'après-midi filtrant à travers les stores vénitiens et créant des ombres rayées, arrière-plan flou, style photoréaliste.".
Le modèle excelle particulièrement avec les instructions qui spécifient des éléments techniques : type d'éclairage (golden hour, studio lighting, natural window light), angle de vue (eye level, bird's eye view, low angle), style photographique (shallow depth of field, bokeh, sharp focus), ou encore des références à des codes couleurs hexadécimaux (par exemple #FF5733) pour une correspondance exacte de branding.
Pour l’affichage de texte (l’une des améliorations de FLUX.2) - soyez explicite sur ce que vous voulez écrire. Par exemple : "a modern tech startup website mockup with the heading 'Welcome to the Future' in bold sans-serif font, navigation menu with Home, About, Services, Contact sections, clean minimalist design". Le modèle comprend aussi les instructions de positionnement spatial, ce qui le rend efficace pour générer des compositions complexes.
Enfin, n'hésitez pas à utiliser le système de contrôle basé sur JSON pour les cas avancés, notamment quand vous travaillez avec plusieurs références. Vous pouvez spécifier précisément quel élément de quelle image de référence doit être préservé, et comment les combiner dans votre génération finale.
Les différentes versions de FLUX.2
Versions officielles
FLUX.2 [pro]

C'est le fer de lance de la gamme. Accessible uniquement via API et partenaires, cette version "SOTA" (State of the Art) offre la meilleure fidélité visuelle, le meilleur respect des prompts et une qualité d'image rivalisant avec les meilleurs modèles fermés du marché. Elle ne fait aucun compromis entre vitesse et qualité.
FLUX.2 [dev]

C'est la version qui enthousiasme la communauté open-source. Il s'agit d'un modèle aux poids ouverts (Open Weights), disponible sur Hugging Face. Avec ses 32 milliards de paramètres, c'est l'un des modèles ouverts les plus puissants au monde. Il est gratuit pour un usage non commercial et permet aux développeurs et chercheurs de regarder "sous le capot".
FLUX.2 [flex]

Comme son nom l'indique, cette version apporte de la flexibilité via l'API. Elle s'adresse aux développeurs qui ont besoin de contrôler le ratio vitesse/qualité. Elle permet de jouer sur le nombre d'étapes de génération (steps) et la force de guidance, idéale pour intégrer l'IA dans des applications nécessitant de la réactivité.
FLUX.2 [klein]

Bien que le lancement vienne d'avoir lieu, BFL a déjà annoncé l'arrivée prochaine de FLUX.2 [klein], une version distillée et plus légère, prévue pour être sous licence Apache 2.0 (totalement open-source).
Versions complémentaires
Au-delà des versions officielles, on peut s'attendre à voir émerger des versions communautaires optimisées.
L'écosystème autour de FLUX.1 avait vu fleurir des quantizations GGUF et Nunchaku pour une exécution encore plus efficace sur hardware limité et une multitude de LoRAs (Low-Rank Adaptations) permettant d'affiner le modèle pour des styles ou sujets spécifiques. FLUX.2 [dev], étant en poids ouverts, devrait suivre la même trajectoire une fois que la communauté aura eu le temps de se l'approprier. Ces adaptations communautaires enrichissent considérablement les possibilités du modèle de base, même si elles mettent généralement quelques semaines ou mois à émerger après la sortie initiale.
Images générées avec FLUX.2
Voici quelques exemples d’images générées avec l’IA de Flux.2
FLUX.2 en détails
Points forts
Le support multi-références constitue sans doute l'avancée la plus marquante de FLUX.2. Pouvoir référencer jusqu'à 10 images simultanément transforme radicalement les workflows créatifs : vous pouvez maintenant générer des centaines d'assets cohérents en préservant l'identité d'un personnage, le style d'un produit ou une ambiance visuelle à travers toute une campagne. Cette cohérence, qui nécessitait auparavant des outils séparés ou du fine-tuning, est désormais native au modèle.


Le réalisme photographique a également franchi un cap. FLUX.2 maîtrise les textures fines comme les tissus, l’architecture, la peau,… avec un niveau de détail qui brouille vraiment la ligne entre image générée et photographie. L'éclairage se comporte de manière crédible, la physique des objets est respectée, et le positionnement spatial dans des scènes complexes fonctionne de manière fiable. C'est particulièrement visible dans des cas d'usage comme le placement de produits, où l'objet inséré doit s'intégrer naturellement avec les ombres, reflets et perspectives de la scène existante.
L’affichage de texte mérite une mention spéciale. Là où de nombreux modèles de génération peinent encore avec la typographie complexe, FLUX.2 produit du texte lisible et bien formé de manière constante. Infographies, maquettes d'interfaces utilisateur, mèmes avec du texte fin, mockups de sites web - tout ça fonctionne en production sans nécessiter de retouches manuelles systématiques. Pour les designers et créatifs qui intègrent du texte dans leurs visuels, c'est un vrai soulagement.


La correspondance exacte des couleurs via codes hexadécimaux change la donne pour les projets de marque. Plus besoin d'approximations ou d'ajustements en post-production pour obtenir exactement le rouge de votre charte graphique - vous spécifiez #FF5733 dans votre prompt, et le modèle le respecte. Cette précision s'étend au système de contrôle basé sur JSON qui permet un guidage précis des compositions, avec des outils comme le guidance de pose pour le positionnement des personnages ou l'expand/shrink génératif pour étendre intelligemment les bordures d'une image.
Architecture et détails techniques
FLUX.2 repose sur une architecture de flow matching latent qui couple le modèle vision-langage Mistral-3 de 24 milliards de paramètres avec un rectified flow transformer. Cette combinaison n'est pas un simple raffinement de FLUX.1, le modèle a été entraîné from scratch avec cette nouvelle architecture. Le choix de Mistral-3 comme encodeur de texte apporte une compréhension contextuelle nettement améliorée, permettant au modèle de saisir les nuances et la structure de prompts complexes.
L'innovation majeure côté architecture est l'unification de la génération et de l'édition d'images dans un seul checkpoint. Traditionnellement, ces capacités nécessitaient des modèles séparés ou des modules additionnels. FLUX.2 intègre nativement l'inpainting, l'outpainting et la génération conditionnelle multi-images, simplifiant considérablement les pipelines de production. Cette approche unifiée explique en partie les performances en termes de cohérence multi-références.
Le nouveau VAE (Variational Autoencoder) de FLUX.2 représente une autre optimisation importante des représentations latentes. Black Forest Labs a cherché le meilleur compromis entre capacité d'apprentissage, qualité finale et taux de compression - trois objectifs souvent en tension dans la conception de VAE. Ce composant, disponible séparément sous licence Apache 2.0, peut d'ailleurs être utilisé indépendamment pour d'autres projets.
La variante [dev] pèse 32 milliards de paramètres, un chiffre qui impressionne mais qui s'accompagne d'exigences matérielles conséquentes. La collaboration avec NVIDIA a permis de développer une implémentation de référence en FP8 (floating-point 8-bit) qui réduit les besoins en VRAM de 40% par rapport à la précision native, tout en maintenant une qualité visuelle comparable. Cette quantification intelligente, couplée aux améliorations du weight streaming dans ComfyUI, rend le modèle accessible sur une RTX 4090 - un seuil d'entrée bien plus raisonnable que les 90 Go de VRAM requis pour la version complète.
Performances et benchmarks
FLUX.2 génère des images jusqu'à 4 mégapixels en moins de 10 secondes, un chiffre qui cache des variations selon le hardware et les optimisations utilisées. Sur un H100 avec les optimisations de Pruna AI, on parle d'environ 2,6 secondes pour une image d'1 mégapixel. Ces performances placent FLUX.2 dans le haut du panier en termes de vitesse, surtout pour un modèle de cette taille et qualité.
La comparaison avec FLUX.1 met en lumière plusieurs sauts qualitatifs significatifs. Le support multi-références est évidemment nouveau, mais les améliorations touchent tous les aspects : le photoréalisme est encore plus poussé avec des textures plus fines, l'adhérence aux prompts complexes est nettement meilleure, le rendu de texte passe de problématique à fiable, et la compréhension du monde réel - éclairage, physique, logique spatiale - est plus ancrée dans la réalité. FLUX.2 comble aussi les lacunes de FLUX.1 en matière de cohérence multi-sujets et d'artefacts visuels comme le fameux "flux face" qui affectait certaines générations de visages.
Face à la concurrence, le positionnement est intéressant. Les retours précoces de la communauté suggèrent que FLUX.2 [pro] rivalise effectivement avec les meilleurs modèles fermés en termes d'adhérence aux prompts et de fidélité visuelle. Pour les modèles open-weight, FLUX.2 [dev] établit clairement un nouveau standard, surpassant ce qui était disponible auparavant sur tous les fronts - génération texte-vers-image, édition à référence unique, édition multi-références. La comparaison avec les géants comme Midjourney ou les modèles de Google reste à affiner avec le temps et des tests plus systématiques, mais le modèle se défend très honorablement.
Un point régulièrement souligné par les premiers utilisateurs : le "burger test" - un test informel de cohérence d'objets - est passé haut la main, et la génération de scènes complexes avec personnages multiples montre une amélioration marquée par rapport à FLUX.1. Les tests sur des prompts exigeants en termes de composition, éclairage et détails confirment que FLUX.2 tient ses promesses de qualité production-ready.
Accessibilité & licences
Tarification et Prix
L'accès à FLUX.2 suit un modèle à plusieurs vitesses adapté aux différents besoins. Le Playground offre le point d'entrée le plus simple avec 50 crédits gratuits à l'inscription - suffisant pour se faire une bonne idée des capacités du modèle. Au-delà de ces crédits gratuits, le système de tarification est basé sur des packs : 10,50, ou 100$ selon vos besoins, avec 1 crédit = 0,01$. Le coût par image varie selon la variante choisie. Une image avec FLUX.2 [pro] coûte 4 crédits par exemple.
Pour les intégrations via API, Black Forest Labs propose une documentation complète sur docs.bfl.ai avec des exemples de code et des guides d'intégration. Les tarifs API suivent la même logique de crédits que le Playground, avec un paiement à l'image qui facilite la prédictibilité des coûts. Les partenaires de lancement - FAL, Replicate, Runware, Verda, TogetherAI, Cloudflare, DeepInfra - proposent leurs propres grilles tarifaires et conditions, offrant de la flexibilité dans le choix du fournisseur d'infrastructure.
Licence ouverte
Le modèle de licence suit la philosophie "open core" de Black Forest Labs. FLUX.2 [pro] et [flex] sont des produits commerciaux accessibles uniquement via API ou Playground. FLUX.2 [dev], lui, est distribué en poids ouverts mais sous une licence non-commerciale pour l'usage de base.
Cette restriction protège le modèle économique de BFL tout en permettant à la communauté d'expérimenter librement. Pour ceux qui veulent utiliser dev commercialement, Black Forest Labs propose deux options de licence : une Self-Serve Dev License pour un usage commercial limité, et des Self-Hosted Commercial Terms pour les entreprises souhaitant un déploiement interne avec tous les droits commerciaux. Ces licences s'obtiennent via le site de BFL et leur coût dépend de l'échelle d'usage prévue.
Le nouveau VAE est lui disponible sous licence Apache 2.0 sans restrictions, une approche cohérente avec la volonté de BFL de contribuer à la recherche ouverte. Klein, quand il sortira, suivra également cette licence permissive. Cette stratégie de licences différenciées permet à Black Forest Labs de maintenir un business model viable tout en nourrissant l'écosystème open source - un équilibre délicat que peu de laboratoires d'IA arrivent à tenir.























