Circula nas redes sociais um vídeo de 15 minutos que mostra o suposto depoimento da mãe de um traficante morto durante a megaoperação policial que deixou 121 mortos na última terça-feira (28), no Rio de Janeiro. A gravação, que se espalhou rapidamente, é falsa. O material foi criado com o uso de inteligência artificial (IA) e não retrata uma situação real.
Publicado no YouTube no domingo (2), o vídeo ultrapassou 530 mil visualizações em poucos dias. Intitulado “‘Meu filho escolheu caminho errado! Eu avisei’: Mãe de traficante morto na operação do Rio fala tudo”, o conteúdo mostra uma mulher segurando um cartaz com a foto de um jovem, enquanto ao fundo outras pessoas exibem cartazes semelhantes. A mulher afirma: “Meu filho estava errado. Ele escolheu o caminho errado”. Na descrição, o vídeo se apresenta como um relato comovente de uma mãe que reconhece os erros do filho e elogia as forças de segurança — apenas depois é exibido um pequeno aviso de que se trata de uma dramatização.
Apesar da advertência, muitas pessoas acreditaram na veracidade do conteúdo. A seção de comentários do vídeo foi tomada por mensagens de apoio, como “Você é uma mãe guerreira, seu filho que não te ouviu” e “Mãe é quem mais sofre, você fez tudo por ele”. O engano se espalhou principalmente após a megaoperação da Polícia do Rio nos complexos do Alemão e da Penha, considerada a mais letal da história do estado, o que aumentou o interesse por conteúdos relacionados ao tema.
vídeo foi criado por inteligência artificial
Um serviço de checagem confirmou que o vídeo foi criado por inteligência artificial. O material foi submetido ao SynthID Detector, ferramenta do Google capaz de identificar conteúdos gerados com a IA da própria empresa. O resultado foi claro: “Feito com IA do Google (vídeo) – Synth ID identificado em todo ou parte do conteúdo carregado”. Essa tecnologia insere uma espécie de marca d’água invisível em vídeos, imagens, áudios e textos fabricados digitalmente, permitindo a detecção de produções sintéticas mesmo que pareçam reais.
Além disso, o áudio do vídeo foi avaliado pela plataforma Hiya, que detecta manipulações vocais por IA. O resultado apontou nível de autenticidade 1 em 100, confirmando que se trata de um deepfake, técnica que cria ou altera falas e imagens de forma hiper-realista. Diferente de montagens que se baseiam em vídeos reais, a IA utilizada neste caso é capaz de produzir cenas inteiramente do zero, sem qualquer referência a pessoas ou fatos existentes. O caso reforça o alerta sobre o poder de desinformação das novas tecnologias e a importância da verificação de conteúdo antes de compartilhar informações nas redes.