Google lance Gemini 3 Flash
La Gemini 3 Flash est basée sur l'architecture Gemini 3 et obtient des résultats comparables aux modèles les plus avancés dans plusieurs tests clés. Le dernier examen de l'humanité Il a atteint 33,7 %, soit près de trois fois plus que son prédécesseur (11 %), et comparable au GPT‑5.2 (34,5 %) et au Gemini 3 Pro (37,5 %).
Sur le test multimodal MMMU-Pro, qui teste la compréhension des images, du texte, du son et d'autres données, le nouveau modèle a surpassé tous ses concurrents avec un score exceptionnel de 81,2 %.
Modèle par défaut pour les utilisateurs du monde entier
Gemini 3 Flash sera désormais le modèle par défaut dans Gemini, remplaçant la version 2.5 Flash. Les utilisateurs pourront toujours opter pour le modèle Pro s'ils ont besoin de solutions mathématiques ou de programmation plus avancées.
Le nouveau modèle offre une meilleure interprétation du contenu multimodal et permet des tâches telles que :
- analyse de la vidéo de l'utilisateur,
- interprétation d'esquisses ou de dessins,
- traitement des enregistrements audio,
- générer des quiz ou du contenu audio,
- préparation des prototypes d'application.
Gemini 3 Flash comprend mieux l'intention de l'utilisateur, crée des réponses visuellement plus riches (tableaux, images) et permet un meilleur suivi des éléments à travers plusieurs étapes de création.
Pour les entreprises et les développeurs
Des entreprises comme JetBrains, Figma, Cursor, Harvey et Latitude utilisent déjà ce nouveau modèle via Vertex AI et Gemini Enterprise. Il est disponible pour les développeurs en avant-première via une API et dans le nouvel outil de programmation Antigravity de Google.
Google affirme que le Gemini 3 Pro obtient un score de 78 % au test d'encodage vérifié SWE-bench, se classant deuxième derrière GPT-5.2. Le nouveau modèle Flash est particulièrement adapté à l'analyse vidéo, à l'extraction de données et aux flux de travail rapides et répétables grâce à sa rapidité.
Prix :
- 0,50 $ par million de jetons d'entrée,
- 3,00 $ par million de jetons de production.
Le modèle est légèrement plus cher que le Gemini 2.5 Flash, mais Google affirme qu'il est trois fois plus rapide et utilise 30 jetons % de moins sur les tâches de « réflexion », ce qui peut réduire les coûts globaux.
Google et OpenAI sont des rivaux de plus en plus féroces.
Google traite plus de 1 000 milliards de jetons par jour via les API Gemini, tandis que la concurrence avec OpenAI s'intensifie. Selon des informations récentes, Sam Altman a déclenché une alerte interne en début de mois suite à la baisse de trafic de ChatGPT, alors que la base d'utilisateurs de Gemini augmentait.
Google ne commente pas officiellement les « résultats de correspondance », mais reconnaît que la mise sur le marché rapide de nouveaux modèles dans le secteur « encourage tous les acteurs à innover » et à développer de nouvelles méthodes d'évaluation de la qualité des modèles.


























