Comment détecter une image ou vidéo générée par l’IA Gemini de Google
Face à la prolifération des médias synthétiques, distinguer l’authentique du généré devient un enjeu majeur. Google intègre directement dans son assistant IA Gemini un outil de vérification pour apporter une première réponse. Voici comment il fonctionne et quelles sont ses réelles capacités.

Gemini : un outil de transparence intégré pour vérifier les médias
Google a ajouté une fonctionnalité concrète à son application Gemini, permettant de vérifier si un contenu visuel ou audio provient de ses propres outils d’intelligence artificielle. L’objectif est de fournir un indice fiable sur l’origine d’une image ou d’une vidéo, sans nécessiter d’expertise technique. Cette innovation s’appuie sur une technologie développée par Google DeepMind : SynthID.
SynthID : le marquage invisible au cœur du système
SynthID est un système de filigrane numérique intégré directement lors de la génération d’un média par les outils Google. Ce marquage possède trois caractéristiques principales :
- Il est imperceptible à l’œil humain.
- Il résiste aux modifications courantes comme le recadrage ou la compression.
- Il n’est détectable que par les outils de Google eux-mêmes.
Depuis son lancement en 2023, cette technologie a déjà été appliquée à plus de 20 milliards de contenus. Il ne s’agit pas d’un logo visible, mais d’un signal discret encodé dans les pixels ou les trames audio, que Gemini est entraîné à reconnaître.
Comment utiliser Gemini pour analyser une image ou une vidéo
La vérification s’effectue en quelques étapes simples directement dans l’application Gemini, que ce soit sur mobile ou ordinateur.
Procédure étape par étape
Pour vérifier un fichier, l’utilisateur doit :
- Ouvrir l’application Gemini.
- Importer l’image ou la vidéo suspecte.
- Poser une question explicite telle que : « Cette vidéo a-t-elle été créée avec les outils IA de Google ? »
Gemini analyse alors le fichier en recherchant la présence du marquage SynthID et utilise son propre raisonnement pour contextualiser sa réponse. Si le marquage est détecté, l’assistant le signale clairement. Dans le cas contraire, il indique qu’aucune trace SynthID n’a été trouvée.
Analyse vidéo avancée et limites techniques
Depuis décembre 2025, la fonctionnalité a été étendue aux vidéos. L’analyse est plus poussée, examinant séparément le flux audio et les images. Gemini peut ainsi préciser à quel moment exact de la vidéo créée par IA le marquage est présent.
Par exemple, la réponse pourrait être : « Marquage détecté dans l’audio entre la 10e et la 20e seconde. Aucun marquage détecté dans les images. » Il est important de noter les contraintes techniques actuelles :
- Taille maximale du fichier : 100 Mo.
- Durée maximale de la vidéo : 90 secondes.
Ce que Gemini détecte réellement : périmètre et limites
Comprendre les capacités exactes de cet outil est crucial pour éviter les interprétations erronées. Il ne s’agit pas d’un détecteur universel de deepfake.
| Ce que Gemini identifie avec certitude | Les limites actuelles de l’outil |
|---|---|
| Contenu créé avec les outils Google (Gemini, Vertex AI, Google Ads). | Contenu généré par un modèle concurrent (Midjourney, Stable Diffusion, etc.). |
| Contenu modifié par ces mêmes outils. | Garantir qu’un contenu sans SynthID est d’origine humaine. |
| Segments spécifiques marqués dans une vidéo. | Retracer l’auteur original d’un média. |
En résumé, Gemini est un outil de vérification fiable mais partiel. Son périmètre se limite strictement à l’écosystème Google. Pour analyser une image générée par IA provenant d’autres sources, il est nécessaire de recourir à des solutions tierces spécialisées dans la détection d’images IA. Cette approche ciblée représente une première brique technologique dans la lutte contre la falsification numérique, en attendant des standards plus universels.
