FLUX.2
Tout ce qu'il faut savoir pour comprendre et utiliser l'IA de FLUX.2
Created Time
modele IMG
modele IMG
FLUX.2 est la nouvelle génération de modèles d’IA générative de Black Forest Labs, offrant une qualité photoréaliste de pointe, une gestion inédite de références multiples et des capacités d'édition avancées, disponible via API et en poids ouverts.

Dernière mise à jour : 21/12/2025
FLUX.2 IA
Qu'est-ce que FLUX.2 ?Qui est derrière FLUX.2 ?Comment utiliser FLUX.2 ?Accès en ligneInstallation en localePrompter FLUX.2Les différentes versions de FLUX.2Versions officiellesFLUX.2 [max]FLUX.2 [pro]FLUX.2 [dev]FLUX.2 [flex]FLUX.2 [klein]Quelle variante choisir ?Versions complémentairesFlux.2 TurboFlux.2 FlashImages générées avec FLUX.2FLUX.2 en détailsPoints fortsArchitecture et détails techniquesPerformances et benchmarksAccessibilité & licencesTarification et PrixLicence ouverteArticles et Tutoriels Flux.2
L’Actualités de Flux.2

Flux.2 en plus rapide !
21/12/25 - Fal AI lance deux version distillées et optimisées pour la vitesse : Flux.2 Flash et Flux.2 Turbo.
→ En savoir plus

[max], le Nouveau Sommet
16/12/25 - Black Forest Labs lance FLUX.2 [max], la version encore pus performante.
→ En savoir plus

Flux.2 est là
24/11/25 - Black Forest Labs a annoncé et déployé Flux.2
→ En savoir plus
Qu'est-ce que FLUX.2 ?
FLUX.2 représente la deuxième génération de la famille de modèles d'IA générative de Black Forest Labs. Après FLUX.1, qui avait déjà marqué les esprits par sa qualité de rendu, FLUX.2 pousse la technologie un cran plus loin en unifiant génération et édition d'images dans une seule architecture. Ces nouveaux modèles sont capables de produire des images jusqu'à 4 mégapixels avec un réalisme photographique impressionnant, de gérer simultanément jusqu'à 10 images de référence pour maintenir la cohérence des personnages ou des styles, et de rendre du texte complexe de manière fiable.
Ce qui distingue FLUX.2, c'est aussi sa capacité à comprendre des prompts structurés et complexes, à respecter l'éclairage et la physique du monde réel, et à permettre une correspondance exacte des couleurs via des codes hexadécimaux. Autant de fonctionnalités qui en font un outil pensé pour des usages professionnels, que ce soit en marketing, en design UI/UX, en production créative ou en e-commerce. Et tout ça en moins de 10 secondes par génération.
Black Forest Labs propose cinq variantes du modèle pour répondre à différents besoins : FLUX.2 [max] pour une qualité professionnelle inégalée et des capacités de recherche web en temps réel, [pro] pour la qualité maximale traditionnelle, [flex] pour le contrôle total des paramètres, [dev] en poids ouverts pour la communauté, et [klein] à venir en version distillée sous licence Apache 2.0. Cette approche hybride combinant modèles fermés performants et versions ouvertes reflète la philosophie "open core" du studio.
Qui est derrière FLUX.2 ?
Aux commandes, on retrouve Black Forest Labs (BFL), une start-up basée à Fribourg en Allemagne et à San Francisco. L'équipe est loin d'être novice : elle a été fondée en 2024 par des figures emblématiques du secteur, notamment Robin Rombach, Andreas Blattmann et Patrick Esser. Ce sont déjà eux qui, alors chez Stability AI, avaient participé à la création du célèbre Stable Diffusion (avant de créer la surprise avec FLUX.1).
BFL se présente un peu comme les “rebelles" de l'industrie avec une philosophie "Open Core". Leur mission est de maintenir l'innovation ouverte et durable. Ils cherchent à offrir le meilleur des deux mondes : des modèles propriétaires ultra-performants pour les entreprises (comme Adobe ou Meta) et des versions aux poids ouverts accessibles aux chercheurs et créatifs indépendants.
Comment utiliser FLUX.2 ?
Accès en ligne
La façon la plus simple de tester FLUX.2 est de passer par le BFL Playground, accessible sur playground.bfl.ai. À l'inscription, vous recevez 50 crédits gratuits pour expérimenter, et l'interface est pensée pour être intuitive même si vous débutez avec les outils de génération d'images. Il suffit d'entrer votre prompt dans le champ prévu, de sélectionner la variante du modèle que vous souhaitez utiliser (pro, flex ou dev selon ce qui est disponible), et de lancer la génération. Le Playground propose aussi des fonctionnalités d'édition comme l'inpainting ou l'outpainting, ainsi que le support multi-références qui permet d'uploader vos images de référence avant de générer.
Pour ceux qui préfèrent d'autres interfaces, FLUX.2 est également disponible dès le jour de sortie sur plusieurs plateformes tierces. Des services comme Dzine, getimg.ai, Replicate ou FAL proposent leurs propres interfaces pour accéder aux modèles, souvent avec leurs propres systèmes de tarification. Vous pouvez choisir la plateforme dont l'interface vous convient le mieux ou qui s'intègre avec vos outils existants.
Installation en locale
Pour ceux qui souhaitent héberger le modèle eux-mêmes, FLUX.2 [dev] est disponible en téléchargement sur Hugging Face sous le dépôt black-forest-labs/FLUX.2-dev. Avec ses 32 milliards de paramètres, ce n'est pas un modèle léger - la version complète nécessite environ 90 Go de VRAM. Mais Black Forest Labs, en collaboration avec NVIDIA, a développé une implémentation quantifiée en FP8 qui réduit les besoins de 40% tout en maintenant une qualité comparable. Cette optimisation rend le modèle accessible sur une RTX 4090, ce qui ouvre la porte à bien plus d'utilisateurs.
L'installation passe généralement par ComfyUI, qui propose déjà des templates dédiés à FLUX.2 avec les optimisations pour GPU NVIDIA RTX. La bibliothèque Diffusers de Hugging Face supporte également FLUX.2, permettant une intégration plus simple dans des pipelines Python. Le nouveau VAE (autoencodeur variationnel) de FLUX.2 est lui aussi disponible sous licence Apache 2.0 sur Hugging Face pour ceux qui voudraient expérimenter.
Prompter FLUX.2
FLUX.2 est parfaitement capable de suivre des prompts structurés et détaillés. Contrairement aux modèles d’anciennes générations modèles qui fonctionnent mieux avec des descriptions courtes, FLUX.2 adore de prompts précis qui décrivent non seulement le sujet principal mais aussi l'éclairage, la composition, les textures et l'ambiance. Par exemple, plutôt que "un chat sur un canapé", essayez "Un chat tigré orange au pelage duveteux se prélassant sur un canapé moderne en velours gris, la lumière de l'après-midi filtrant à travers les stores vénitiens et créant des ombres rayées, arrière-plan flou, style photoréaliste.".
Le modèle excelle particulièrement avec les instructions qui spécifient des éléments techniques : type d'éclairage (golden hour, studio lighting, natural window light), angle de vue (eye level, bird's eye view, low angle), style photographique (shallow depth of field, bokeh, sharp focus), ou encore des références à des codes couleurs hexadécimaux (par exemple #FF5733) pour une correspondance exacte de branding.
Pour l’affichage de texte (l’une des améliorations de FLUX.2) - soyez explicite sur ce que vous voulez écrire. Par exemple : "a modern tech startup website mockup with the heading 'Welcome to the Future' in bold sans-serif font, navigation menu with Home, About, Services, Contact sections, clean minimalist design". Le modèle comprend aussi les instructions de positionnement spatial, ce qui le rend efficace pour générer des compositions complexes.
Enfin, n'hésitez pas à utiliser le système de contrôle basé sur JSON pour les cas avancés, notamment quand vous travaillez avec plusieurs références. Vous pouvez spécifier précisément quel élément de quelle image de référence doit être préservé, et comment les combiner dans votre génération finale.
Avec FLUX.2 [max], vous pouvez aller encore plus loin en intégrant des données contextuelles en temps réel. Par exemple : "A professional product photo of a smartphone displaying today's weather forecast for Paris, Search the internet, studio lighting, clean white background, sharp focus" permettra au modèle de rechercher les vraies prévisions météo actuelles et de les afficher sur l'écran du téléphone généré. Cette capacité ouvre de nouvelles possibilités pour créer du contenu qui reste pertinent et ancré dans l'actualité.
Les différentes versions de FLUX.2
Versions officielles
FLUX.2 [max]

Cette version premium est capable de faire des recherches en temps réel sur le web pour améliorer ses générations. Idéal pour intégrer des données actuelles comme des scores sportifs, la météo du jour ou des événements récents. [max] excelle aussi en cohérence éditoriale et retexturisation précise, avec une qualité professionnelle
FLUX.2 [pro]

C'est le fer de lance de la gamme. Accessible uniquement via API et partenaires, cette version "SOTA" (State of the Art) offre la meilleure fidélité visuelle, le meilleur respect des prompts et une qualité d'image rivalisant avec les meilleurs modèles fermés du marché. Elle ne fait aucun compromis entre vitesse et qualité.
FLUX.2 [dev]

C'est la version qui enthousiasme la communauté open-source. Il s'agit d'un modèle aux poids ouverts (Open Weights), disponible sur Hugging Face. Avec ses 32 milliards de paramètres, c'est l'un des modèles ouverts les plus puissants au monde. Il est gratuit pour un usage non commercial et permet aux développeurs et chercheurs de regarder "sous le capot".
FLUX.2 [flex]

Comme son nom l'indique, cette version apporte de la flexibilité via l'API. Elle s'adresse aux développeurs qui ont besoin de contrôler le ratio vitesse/qualité. Elle permet de jouer sur le nombre d'étapes de génération (steps) et la force de guidance, idéale pour intégrer l'IA dans des applications nécessitant de la réactivité.
FLUX.2 [klein]

BFL a annoncé l'arrivée prochaine de FLUX.2 [klein], une version distillée et plus légère, prévue pour être sous licence Apache 2.0 (totalement open-source).
Quelle variante choisir ?
Variante | Usage idéal | Points forts | Disponibilité |
[max] | Production professionnelle premium, création cinématographique, photographie commerciale | Génération ancrée web, cohérence éditoriale maximale, retexturation précise | API, Dashboard BFL |
[pro] | Production de qualité, workflows créatifs standards | Équilibre qualité/vitesse, photoréalisme excellent | API, Playground, partenaires |
[flex] | Contrôle fin des paramètres, itération rapide | Ajustement steps/guidance, rapidité | API |
[dev] | Expérimentation, recherche, développement | Poids ouverts, personnalisable, gratuit (usage non-commercial) | Hugging Face, local |
[klein] | Déploiements à grande échelle, hardware limité | Léger, Apache 2.0, accessible | À venir |
Versions complémentaires
Au-delà des versions officielles, on peut s'attendre à voir émerger des versions communautaires optimisées.
L'écosystème autour de FLUX.1 avait vu fleurir des quantizations GGUF et Nunchaku pour une exécution encore plus efficace sur hardware limité et une multitude de LoRAs (Low-Rank Adaptations) permettant d'affiner le modèle pour des styles ou sujets spécifiques. FLUX.2 [dev], étant en poids ouverts, il est appelé à suivre la même trajectoire. Ces adaptations communautaires enrichissent considérablement les possibilités du modèle de base, même si elles mettent généralement quelques semaines ou mois à émerger après la sortie initiale.
Flux.2 Turbo

Version optimisée par distillation proposée par Fal, capable de générer des images en moins d'une seconde. Basée sur FLUX.2 [dev], elle réduit drastiquement le nombre d'étapes de calcul tout en conservant la qualité et les fonctionnalités du modèle original. Idéale pour l'itération rapide et les workflows de production nécessitant un retour immédiat.
→ Flux.2 est partagé en open-weight par fal et peut être téléchargé sur Hugging Face
Flux.2 Flash

La variante la plus rapide et économique proposée par Fal. Cette implémentation distillée privilégie la vitesse maximale pour les cas d'usage où le volume et la réactivité priment, comme le prototypage rapide ou la génération d'assets en masse. Maintient les capacités essentielles de FLUX.2 [dev] dans un format ultra-léger.
Images générées avec FLUX.2
Voici quelques exemples d’images générées avec l’IA de Flux.2
FLUX.2 en détails
Points forts
Le support multi-références constitue sans doute l'avancée la plus marquante de FLUX.2. Pouvoir référencer jusqu'à 10 images simultanément transforme radicalement les workflows créatifs : vous pouvez maintenant générer des centaines d'assets cohérents en préservant l'identité d'un personnage, le style d'un produit ou une ambiance visuelle à travers toute une campagne. Cette cohérence, qui nécessitait auparavant des outils séparés ou du fine-tuning, est désormais native au modèle.


Le réalisme photographique a également franchi un cap. FLUX.2 maîtrise les textures fines comme les tissus, l’architecture, la peau,… avec un niveau de détail qui brouille vraiment la ligne entre image générée et photographie. L'éclairage se comporte de manière crédible, la physique des objets est respectée, et le positionnement spatial dans des scènes complexes fonctionne de manière fiable. C'est particulièrement visible dans des cas d'usage comme le placement de produits, où l'objet inséré doit s'intégrer naturellement avec les ombres, reflets et perspectives de la scène existante.
L’affichage de texte mérite une mention spéciale. Là où de nombreux modèles de génération peinent encore avec la typographie complexe, FLUX.2 produit du texte lisible et bien formé de manière constante. Infographies, maquettes d'interfaces utilisateur, mèmes avec du texte fin, mockups de sites web - tout ça fonctionne en production sans nécessiter de retouches manuelles systématiques. Pour les designers et créatifs qui intègrent du texte dans leurs visuels, c'est un vrai soulagement.


La correspondance exacte des couleurs via codes hexadécimaux change la donne pour les projets de marque. Plus besoin d'approximations ou d'ajustements en post-production pour obtenir exactement le rouge de votre charte graphique - vous spécifiez #FF5733 dans votre prompt, et le modèle le respecte. Cette précision s'étend au système de contrôle basé sur JSON qui permet un guidage précis des compositions, avec des outils comme le guidance de pose pour le positionnement des personnages ou l'expand/shrink génératif pour étendre intelligemment les bordures d'une image.
FLUX.2 [max] introduit également une nouvelle fonctionnalité : le modèle peut rechercher activement des informations sur le web pendant le processus de génération, créant des images qui intègrent des données en temps réel. Imaginez générer une affiche sportive avec les vrais scores d'un match qui vient de se terminer, ou créer une interface météo affichant les conditions actuelles de votre ville. Cette connexion au monde réel transforme la génération d'images d'un exercice purement imaginatif en un outil capable de produire du contenu contextuellement pertinent et factuel. Pour les créateurs de contenu, marketeurs et designers qui travaillent sur des projets nécessitant des données actuelles, cette fonctionnalité élimine les allers-retours entre recherche manuelle et création visuelle.
Architecture et détails techniques
FLUX.2 repose sur une architecture de flow matching latent qui couple le modèle vision-langage Mistral-3 de 24 milliards de paramètres avec un rectified flow transformer. Cette combinaison n'est pas un simple raffinement de FLUX.1, le modèle a été entraîné from scratch avec cette nouvelle architecture. Le choix de Mistral-3 comme encodeur de texte apporte une compréhension contextuelle nettement améliorée, permettant au modèle de saisir les nuances et la structure de prompts complexes.
L'innovation majeure côté architecture est l'unification de la génération et de l'édition d'images dans un seul checkpoint. Traditionnellement, ces capacités nécessitaient des modèles séparés ou des modules additionnels. FLUX.2 intègre nativement l'inpainting, l'outpainting et la génération conditionnelle multi-images, simplifiant considérablement les pipelines de production. Cette approche unifiée explique en partie les performances en termes de cohérence multi-références.
Le nouveau VAE (Variational Autoencoder) de FLUX.2 représente une autre optimisation importante des représentations latentes. Black Forest Labs a cherché le meilleur compromis entre capacité d'apprentissage, qualité finale et taux de compression - trois objectifs souvent en tension dans la conception de VAE. Ce composant, disponible séparément sous licence Apache 2.0, peut d'ailleurs être utilisé indépendamment pour d'autres projets.
La variante [dev] pèse 32 milliards de paramètres, un chiffre qui impressionne mais qui s'accompagne d'exigences matérielles conséquentes. La collaboration avec NVIDIA a permis de développer une implémentation de référence en FP8 (floating-point 8-bit) qui réduit les besoins en VRAM de 40% par rapport à la précision native, tout en maintenant une qualité visuelle comparable. Cette quantification intelligente, couplée aux améliorations du weight streaming dans ComfyUI, rend le modèle accessible sur une RTX 4090 - un seuil d'entrée bien plus raisonnable que les 90 Go de VRAM requis pour la version complète.
Performances et benchmarks
FLUX.2 génère des images jusqu'à 4 mégapixels en moins de 10 secondes, un chiffre qui cache des variations selon le hardware et les optimisations utilisées. Sur un H100 avec les optimisations de Pruna AI, on parle d'environ 2,6 secondes pour une image d'1 mégapixel. Ces performances placent FLUX.2 dans le haut du panier en termes de vitesse, surtout pour un modèle de cette taille et qualité.
La comparaison avec FLUX.1 met en lumière plusieurs sauts qualitatifs significatifs. Le support multi-références est évidemment nouveau, mais les améliorations touchent tous les aspects : le photoréalisme est encore plus poussé avec des textures plus fines, l'adhérence aux prompts complexes est nettement meilleure, le rendu de texte passe de problématique à fiable, et la compréhension du monde réel - éclairage, physique, logique spatiale - est plus ancrée dans la réalité. FLUX.2 comble aussi les lacunes de FLUX.1 en matière de cohérence multi-sujets et d'artefacts visuels comme le fameux "flux face" qui affectait certaines générations de visages.
L'arrivée de FLUX.2 [max] en décembre 2025 redéfinit le sommet de la gamme : les benchmarks d'Artificial Analysis le placent en deuxième position pour la génération texte-vers-image et l'édition, une performance remarquable qui le positionne au niveau des meilleurs modèles propriétaires du marché. La combinaison de la génération ancrée, de la cohérence éditoriale maximale et du photoréalisme poussé à l'extrême en fait un choix privilégié pour les productions où aucun compromis n'est acceptable.
Face à la concurrence, le positionnement est intéressant. Les retours précoces de la communauté suggèrent que FLUX.2 [pro] rivalise effectivement avec les meilleurs modèles fermés en termes d'adhérence aux prompts et de fidélité visuelle. Pour les modèles open-weight, FLUX.2 [dev] établit clairement un nouveau standard, surpassant ce qui était disponible auparavant sur tous les fronts - génération texte-vers-image, édition à référence unique, édition multi-références. La comparaison avec les géants comme Midjourney ou les modèles de Google reste à affiner avec le temps et des tests plus systématiques, mais le modèle se défend très honorablement.
Un point régulièrement souligné par les premiers utilisateurs : le "burger test" - un test informel de cohérence d'objets - est passé haut la main, et la génération de scènes complexes avec personnages multiples montre une amélioration marquée par rapport à FLUX.1. Les tests sur des prompts exigeants en termes de composition, éclairage et détails confirment que FLUX.2 tient ses promesses de qualité production-ready.
Accessibilité & licences
Tarification et Prix
L'accès à FLUX.2 suit un modèle à plusieurs vitesses adapté aux différents besoins. Le Playground offre le point d'entrée le plus simple avec 50 crédits gratuits à l'inscription - suffisant pour se faire une bonne idée des capacités du modèle. Au-delà de ces crédits gratuits, le système de tarification est basé sur des packs : 10,50, ou 100$ selon vos besoins, avec 1 crédit = 0,01$. Le coût par image varie selon la variante choisie. Une image avec FLUX.2 [pro] coûte 4 crédits par exemple.
Pour les intégrations via API, Black Forest Labs propose une documentation complète sur docs.bfl.ai avec des exemples de code et des guides d'intégration. Les tarifs API suivent la même logique de crédits que le Playground, avec un paiement à l'image qui facilite la prédictibilité des coûts. Les partenaires de lancement - FAL, Replicate, Runware, Verda, TogetherAI, Cloudflare, DeepInfra - proposent leurs propres grilles tarifaires et conditions, offrant de la flexibilité dans le choix du fournisseur d'infrastructure.
Licence ouverte
Le modèle de licence suit la philosophie "open core" de Black Forest Labs. FLUX.2 [pro] et [flex] sont des produits commerciaux accessibles uniquement via API ou Playground. FLUX.2 [dev], lui, est distribué en poids ouverts mais sous une licence non-commerciale pour l'usage de base.
Cette restriction protège le modèle économique de BFL tout en permettant à la communauté d'expérimenter librement. Pour ceux qui veulent utiliser dev commercialement, Black Forest Labs propose deux options de licence : une Self-Serve Dev License pour un usage commercial limité, et des Self-Hosted Commercial Terms pour les entreprises souhaitant un déploiement interne avec tous les droits commerciaux. Ces licences s'obtiennent via le site de BFL et leur coût dépend de l'échelle d'usage prévue.
Le nouveau VAE est lui disponible sous licence Apache 2.0 sans restrictions, une approche cohérente avec la volonté de BFL de contribuer à la recherche ouverte. Klein, quand il sortira, suivra également cette licence permissive. Cette stratégie de licences différenciées permet à Black Forest Labs de maintenir un business model viable tout en nourrissant l'écosystème open source - un équilibre délicat que peu de laboratoires d'IA arrivent à tenir.





















![FLUX.2 [max], le nouveau Flux premium](https://www.notion.so/image/attachment:17cfc198-9733-4517-a4db-1f0d8dab711d:flux-2-max.png?table=block&id=2cb3cf2f-141e-80d7-947a-ce18cf8472d7&cache=v2)



