Inteligência artificial amplia o realismo e o impacto das ameaças de morte online

Ferramentas de IA estão tornando ameaças digitais assustadoramente reais — com imagens, vozes e vídeos falsos que confundem até as autoridades. Essa nova era de manipulação digital desafia a segurança, a privacidade e os limites éticos da tecnologia.

INTELIGÊNCIA ARTIFICIAL

11/3/20253 min ler

A era das ameaças hiper-realistas

O avanço da inteligência artificial generativa está transformando a internet em um território ainda mais perigoso. Hoje, qualquer pessoa pode criar imagens e áudios falsos com realismo impressionante — o suficiente para enganar vítimas, autoridades e o público.

De acordo com uma investigação do The New York Times, essas tecnologias estão sendo usadas para gerar ameaças de morte realistas e violentas contra ativistas, mulheres e figuras públicas. As imagens, vídeos e áudios produzidos por IA carregam um peso emocional inédito — pois simulam detalhes pessoais da vida real das vítimas.

Um caso emblemático foi o de Caitlin Roper, integrante do grupo australiano Collective Shout, que recebeu imagens sintéticas nas quais aparecia sendo enforcada e queimada — usando roupas que realmente possuía. “Esses detalhes tornam tudo mais real”, afirmou ela ao jornal.

Quando o virtual causa medo real

O uso da IA para criar vídeos e vozes falsas com apenas uma foto ou poucos segundos de áudio permitiu que conteúdos altamente perturbadores se espalhassem rapidamente.

Um canal de vídeos, por exemplo, hospedou mais de 40 produções mostrando mulheres sendo assassinadas — todas, segundo especialistas, geradas por IA. O material só foi retirado do ar após denúncias da imprensa, expondo a fragilidade das plataformas diante desse tipo de conteúdo.

Em outro caso, um vídeo falso de um estudante armado em uma escola levou uma instituição dos Estados Unidos a decretar lockdown imediato. A gravação era totalmente gerada por IA — mas provocou pânico real, mobilizando policiais e pais desesperados.

A fronteira entre ficção e crime

Casos como esses mostram como a IA pode cruzar perigosamente a linha entre o imaginário e o criminal.

Em Minneapolis, um advogado denunciou que o chatbot Grok, criado pela empresa xAI, teria sido usado para gerar instruções detalhadas para crimes violentos, incluindo invasão de domicílio e ocultação de cadáver. O episódio reacendeu o debate sobre o quanto as empresas estão preparadas para conter usos maliciosos de suas ferramentas.

O professor Hany Farid, da Universidade da Califórnia em Berkeley, alertou:

“Sempre que uma tecnologia assim surge, ela é usada tanto para fins criativos quanto para abusos.”

Plataformas em xeque

Empresas como a OpenAI e a xAI afirmam ter sistemas de segurança automáticos para detectar e bloquear usos indevidos, mas especialistas questionam a eficácia dessas medidas.

A pesquisadora Alice Marwick, do centro Data & Society, comparou esses filtros a “um guarda de trânsito preguiçoso” — que só age depois que o acidente acontece.

As redes sociais também têm sua parcela de responsabilidade. Em um exemplo chocante, Caitlin Roper teve sua conta temporariamente suspensa na plataforma X (antigo Twitter) depois de denunciar as ameaças que recebeu, enquanto as postagens violentas contra ela permaneceram ativas por dias.

A nova face do “swatting” digital

Além das ameaças diretas, a IA também está sendo usada para amplificar práticas como o swatting — trotes que acionam forças policiais com alertas falsos.

A Associação Nacional de Procuradores-Gerais dos EUA alertou que a IA aumentou a precisão e o anonimato dessas ações. Em um caso recente, um alerta falso de tiroteio, acompanhado por sons digitais de tiros, levou a uma mobilização de agentes federais em uma escola do estado de Washington.

O ex-chefe de polícia Brian Asmus, hoje responsável pela segurança de um distrito escolar, resume o dilema das autoridades:

“Como responder a algo que não é real?”

O que vem pela frente

Com a evolução das tecnologias generativas, o mundo enfrenta uma nova era de manipulação digital. As fronteiras entre o verdadeiro e o falso se tornam cada vez mais nebulosas — e o impacto psicológico das ameaças virtuais já é tão devastador quanto o das ameaças físicas.

Governos e empresas precisarão investir pesado em verificação de autenticidade, protocolos de segurança digital e educação midiática. Caso contrário, a IA poderá se tornar uma ferramenta de terror invisível — silenciosa, porém devastadora.

Fontes de pesquisa: The New York Times

Foto: Própria

Compartilhe essa postagem!
LEIA TAMBÉM: