Introdução
O Fato ou Fake do G1 identificou como sintético um vídeo viral que mostra um leão cheirando uma mulher em uma suposta jaula na Índia. A checagem detalha a metodologia usada para comprovar a origem sintética do material e cita sinais que indicam uso de modelos de geração de vídeo por IA.
Como a verificação foi conduzida
A equipe submeteu o vídeo a duas plataformas de detecção de conteúdo sintético: Hive Moderation e Sightengine. Os resultados apontaram alta probabilidade de conteúdo gerado por IA — 99,9% no Hive e 75% no Sightengine — e a segunda ferramenta indicou ainda chances de uso do modelo Sora, da OpenAI.
Rastreamento da origem
Para encontrar a publicação original, os verificadores utilizaram a ferramenta InVID para fragmentar o vídeo em frames e então realizar buscas reversas com Google Lens. O rastreio levou ao post original no Instagram, publicado em 1º de janeiro pelo autor que se apresenta como criador de conteúdo com IA; nas hashtags constava referência ao Sora 2.
Evidências que reforçam a falsidade
- Ausência de qualquer reportagem em veículos locais cobrindo o suposto incidente no zoológico;
- Marcação explícita do autor do vídeo nas hashtags indicando uso de ferramenta generativa;
- Resultados das plataformas de detecção de conteúdo sintético com altos índices de probabilidade.
Contexto mais amplo
O Fato ou Fake observa que vídeos sintéticos envolvendo animais têm viralizado, e equipes de checagem já desmentiram casos similares, como uma leoa cheirando um homem dormindo na rua e a cena de um cachorro salvando uma criança de atropelamento por trem — ambos gerados com IA. A matéria demonstra metodologia prática de verificação que combina detecção automática e busca de origem.
O que a checagem não aponta
A reportagem não atribui autoria maliciosa ao criador do conteúdo além de classificar o material como sintético. Também não há indicação de uso do vídeo para golpes ou campanhas de desinformação específicas; trata-se, na matéria, de um caso isolado de conteúdo criado com recursos de IA e compartilhado com caráter sensacionalista.
Implicações para profissionais de segurança e comunicação
Para times de segurança da informação e equipes de comunicação, o caso reforça a necessidade de incorporar ferramentas automatizadas de detecção de conteúdo sintético aos fluxos de triagem, e de usar técnicas de rastreio de origem (ex.: fragmentação de frames e buscas reversas) antes de aceitar um vídeo como prova de um incidente do mundo real.
Conclusão
A checagem do G1 classifica o vídeo como falso, com evidências técnicas (detecção por plataformas especializadas e rastreio até a publicação original) que sustentam a conclusão. Não há, na matéria, indícios de vítimas reais ou de implicações legais específicas derivadas do conteúdo viralizado.