Hack Alerta

Vídeo deepfake usa Marcos Palmeira em golpe de 'vaquinha' para Orelha

Um vídeo falso com imagem e áudio manipulados por IA atribui a Marcos Palmeira um pedido de doações para o caso do cão Orelha. Testes apontaram alta probabilidade de deepfake (InVID 98%) e áudio sintético (Hiya 92%). O domínio da vaquinha é novo e de baixa confiança; a assessoria do ator negou participação.

Introdução

Circula nas redes sociais um vídeo que atribui ao ator Marcos Palmeira um pedido de doações para um caso envolvendo o cão "Orelha". Verificadores e a própria assessoria do ator confirmaram que o material é falso e que áudio e imagem foram possivelmente gerados por IA.

Elementos verificados

A checagem realizada pela equipe do Fato ou Fake (G1) detalha que o vídeo combina uma imagem do ator com áudio fabricado. Testes com ferramentas automáticas apontaram 98% de probabilidade de manipulação facial (InVID) e 92% de probabilidade de áudio sintético (Hiya).

Como funciona o golpe identificado

O vídeo direcionava usuários a um site de "vaquinha" que pede pagamentos via PIX. O domínio foi analisado por serviços como ScamAdviser, que o classificou como novo e de baixa confiança. A página não apresenta CNPJ, razão social ou endereço — sinais comuns de campanhas fraudulentas que exploram apelo emocional.

Resposta do envolvido

Marcos Palmeira, por meio de sua assessoria, negou a autenticidade do vídeo e afirmou que criminosos se apropriaram de uma causa para aplicar golpe. A assessoria também sugeriu que a imagem do ator foi usada como base para a manipulação.

Impacto e riscos

Golpes que combinam deepfakes e plataformas de arrecadação representam risco direto de perda financeira e dificultam triagem por plataformas de pagamento. O uso de PIX como método de pagamento agrava a rastreabilidade quando intermediadores não divulgam destinatários.

Orientações para empresas e usuários

  • Confirmar origens de pedidos de doação; checar CNPJ/razão social em campanhas públicas.
  • Desconfiar de publicações que exigem urgência e pagamento direto via PIX sem possibilidade de auditoria.
  • Aplicar ferramentas de detecção de deepfake e, quando possível, checar com assessorias de figuras públicas antes de repassar conteúdo.

O que não está claro

A reportagem verificada não detalha quantas pessoas foram enganadas ou valores movimentados. Não há indicação pública de investigação formal sobre o domínio de arrecadação nem de ação das plataformas de pagamento em resposta.

Referência

Checagem publicada pelo G1 (Fato ou Fake) com análises de InVID, Hiya e ScamAdviser, além de posicionamento da assessoria de Marcos Palmeira.


Baseado em publicação original de G1
Publicado pela Redação Hack Alerta com base em fontes externas citadas e monitoramento editorial do Hack Alerta. Para decisões técnicas, operacionais ou jurídicas, confirme sempre os detalhes na fonte original.