Hack Alerta

É #FAKE: vídeo de leão cheirando mulher foi criado com IA

O Fato ou Fake do G1 concluiu que o vídeo viral em que um leão cheira uma mulher foi criado com IA. Testes em Hive Moderation (99,9%) e Sightengine (75%) e buscas reversas com InVID/Google Lens levaram ao post original que indicava uso do Sora 2.

Introdução

O Fato ou Fake do G1 identificou como sintético um vídeo viral que mostra um leão cheirando uma mulher em uma suposta jaula na Índia. A checagem detalha a metodologia usada para comprovar a origem sintética do material e cita sinais que indicam uso de modelos de geração de vídeo por IA.

Como a verificação foi conduzida

A equipe submeteu o vídeo a duas plataformas de detecção de conteúdo sintético: Hive Moderation e Sightengine. Os resultados apontaram alta probabilidade de conteúdo gerado por IA — 99,9% no Hive e 75% no Sightengine — e a segunda ferramenta indicou ainda chances de uso do modelo Sora, da OpenAI.

Rastreamento da origem

Para encontrar a publicação original, os verificadores utilizaram a ferramenta InVID para fragmentar o vídeo em frames e então realizar buscas reversas com Google Lens. O rastreio levou ao post original no Instagram, publicado em 1º de janeiro pelo autor que se apresenta como criador de conteúdo com IA; nas hashtags constava referência ao Sora 2.

Evidências que reforçam a falsidade

  • Ausência de qualquer reportagem em veículos locais cobrindo o suposto incidente no zoológico;
  • Marcação explícita do autor do vídeo nas hashtags indicando uso de ferramenta generativa;
  • Resultados das plataformas de detecção de conteúdo sintético com altos índices de probabilidade.

Contexto mais amplo

O Fato ou Fake observa que vídeos sintéticos envolvendo animais têm viralizado, e equipes de checagem já desmentiram casos similares, como uma leoa cheirando um homem dormindo na rua e a cena de um cachorro salvando uma criança de atropelamento por trem — ambos gerados com IA. A matéria demonstra metodologia prática de verificação que combina detecção automática e busca de origem.

O que a checagem não aponta

A reportagem não atribui autoria maliciosa ao criador do conteúdo além de classificar o material como sintético. Também não há indicação de uso do vídeo para golpes ou campanhas de desinformação específicas; trata-se, na matéria, de um caso isolado de conteúdo criado com recursos de IA e compartilhado com caráter sensacionalista.

Implicações para profissionais de segurança e comunicação

Para times de segurança da informação e equipes de comunicação, o caso reforça a necessidade de incorporar ferramentas automatizadas de detecção de conteúdo sintético aos fluxos de triagem, e de usar técnicas de rastreio de origem (ex.: fragmentação de frames e buscas reversas) antes de aceitar um vídeo como prova de um incidente do mundo real.

Conclusão

A checagem do G1 classifica o vídeo como falso, com evidências técnicas (detecção por plataformas especializadas e rastreio até a publicação original) que sustentam a conclusão. Não há, na matéria, indícios de vítimas reais ou de implicações legais específicas derivadas do conteúdo viralizado.


Baseado em publicação original de G1
Publicado pela Redação Hack Alerta com base em fontes externas citadas e monitoramento editorial do Hack Alerta. Para decisões técnicas, operacionais ou jurídicas, confirme sempre os detalhes na fonte original.