Gemini Omni relance la guerre de la génération vidéo par IA avant la Google I/O 2026

Avant même la Google I/O 2026, Google laisse entrevoir un modèle vidéo IA capable de modifier une scène entière sans quitter le chat.

Par
Christian Morizot
Christian Morizot
Pigiste ardu
Christian Morizot, c’est un peu le couteau suisse du numérique : pigiste depuis presque dix ans, il a roulé sa bosse dans la tech et le...
8 Minutes de lecture
© Photo : Google

Des clips sortis de nulle part. Une interface qui se met à parler d’un modèle dont personne n’avait entendu parler. Voilà comment Gemini Omni, le prochain outil de génération vidéo par IA de Google, s’est retrouvé sous le feu des projecteurs bien avant l’annonce officielle prévue lors de la conférence Google I/O 2026, les 19 et 20 mai. Cette double fuite, survenue à neuf jours d’intervalle, donne un avant-goût de ce qui pourrait être l’un des tournants de l’IA générative en 2026.

Les premiers indices de Gemini Omni apparaissent dans l’application Gemini

Tout commence le 2 mai. Un utilisateur attentif remarque une ligne insolite dans l’onglet de génération vidéo de l’application Gemini : « Commencez avec une idée ou essayez un modèle. Propulsé par Omni. » Le site de veille TestingCatalog, spécialisé dans le suivi des nouveautés de Google, signale aussitôt cette découverte. Ce qui intrigue les observateurs, c’est la proximité de cette mention avec « Toucan », le nom de code interne du pipeline vidéo actuel de Google, alimenté par Veo 3.1.

Deux noms côte à côte dans la même interface. Cela suggère qu’Omni n’est pas une simple mise à jour cosmétique, mais un modèle à part entière conçu pour prendre le relais ou coexister avec la technologie Veo que Google perfectionne depuis plusieurs années. Comme le résume TestingCatalog avec prudence : « Tout cela reste hautement spéculatif. »

Les premières vidéos générées par Omni impressionnent déjà les spécialistes

Le 11 mai, la situation bascule. Des vidéos générées directement par Omni commencent à circuler sur les réseaux sociaux. Au moins un abonné au forfait Gemini AI Pro a accédé au modèle et publié deux clips. L’un d’eux montre deux hommes attablés autour d’un plat de spaghettis dans un restaurant en bord de mer, une scène qui a été choisie comme test de référence dans la communauté de l’intelligence artificielle. Chrome Unboxed qualifie le rendu d’« incroyablement réaliste ».

- Publicité -

Le second clip est encore plus révélateur sur le plan technique. On y voit un professeur tracer des formules trigonométriques au tableau, trait après trait, en parfaite synchronisation avec le mouvement de sa main. Générer un texte manuscrit cohérent, lisible et temporellement coordonné reste l’un des défis les plus ardus pour les modèles vidéo actuels. Le fait que ce clip semble le réussir mérite qu’on s’y attarde.

L’interface affichait par ailleurs un nouveau message : « Découvrez notre nouveau modèle vidéo. Retravaillez vos vidéos, modifiez-les directement dans le chat, essayez un modèle et bien plus encore. » Un positionnement qui tranche avec celui de la concurrence.

Suivez toute l’actualité d’Essential Homme sur Google Actualités, sur notre chaîne WhatsApp, ou recevoir directement dans votre boîte mail avec Feeder.

Google mise sur une génération vidéo intégrée au chat conversationnel

C’est là qu’Omni pourrait réellement se distinguer. Runway, Pika ou encore Sora d’OpenAI proposent certes des outils d’édition vidéo, mais ceux-ci fonctionnent généralement comme des flux de travail distincts de la génération. Avec Omni, Google semble vouloir réunir la génération, le remixage et l’édition en langage naturel au sein d’une seule et même interface conversationnelle. L’utilisateur pourrait ainsi créer une scène, puis demander à modifier un détail, à changer l’ambiance lumineuse ou à retoucher un personnage, le tout sans jamais quitter le chat.

- Publicité -

Cette approche s’inscrit dans la philosophie générale de Gemini : tout centraliser et tout fluidifier. Si Omni tient cette promesse, il comble une lacune réelle que les utilisateurs avancés reprochent à Sora depuis son lancement.

La consommation de calcul d’Omni soulève déjà des limites concrètes

Reste toutefois un bémol de taille. Les premiers testeurs ont en effet constaté qu’une simple session de deux clips avait suffi à consommer 86 % du quota journalier d’un abonné AI Pro. C’est considérable. Cela signifie qu’Omni est significativement plus gourmand en calcul que le pipeline Veo 3.1 actuel, ce qui pourrait poser des questions quant à son accessibilité réelle, notamment pour les créateurs qui travaillent en grande quantité.

Ce niveau de consommation laisse également supposer que les clips divulgués proviennent d’une version haute qualité du modèle. TestingCatalog évoque d’ailleurs une architecture à deux niveaux : une variante Flash axée sur la vitesse et une variante Pro axée sur la qualité. Les clips visibles en ligne correspondraient à la version Flash, ce qui, si cette information est exacte, laisse présager des résultats encore plus impressionnants pour la version Pro.

- Publicité -

L’architecture réelle de Gemini Omni reste encore entourée d’incertitudes

Que se cache-t-il réellement derrière le nom Omni ? Trois hypothèses circulent. La première possibilité est qu’il s’agisse d’un simple rebranding de Veo 3.1, auquel Google donnerait un nom grand public plus accrocheur. Deuxième option : il s’agirait d’un nouveau modèle construit nativement sur l’architecture Gemini, sans lien direct avec la lignée Veo. La troisième piste, la plus ambitieuse, est la suivante : Omni serait une architecture véritablement unifiée, capable de gérer le texte, l’image, la vidéo et l’audio au sein d’un même système.

Cette dernière hypothèse changerait la donne. Google gère actuellement une stratégie de modèles séparés : Veo pour la vidéo, les modèles Nano Banana pour l’image. Omni pourrait être la première tentative sérieuse de les fusionner. Ce serait une position inédite parmi les grands modèles du marché.

La Google I/O 2026 pourrait officialiser la nouvelle stratégie IA de Google

La conférence Google I/O 2026 se tiendra les 19 et 20 mai au Shoreline Amphitheatre de Mountain View, en Californie. Des annonces concernant Gemini et l’IA sont explicitement prévues au programme. Reste à savoir si Google présentera Omni comme une fonctionnalité ou comme un modèle à part entière, mais la double fuite de ces derniers jours rend une annonce officielle très probable.

En attendant, le secteur observe. Runway, Pika et OpenAI ont tous leurs propres réponses à apporter. Mais si Google parvient à lancer un modèle qui unifie la génération et l’édition dans une interface fluide, tout en affichant la qualité visuelle entrevue dans ces clips, la concurrence devra accélérer.

- Publicité -
- Publicité -
Partager cet article