Mais material de abuso sexual infantil gerado por IA está sendo postado online

Mais material de abuso sexual infantil gerado por IA está sendo postado online

Mundo

A quantidade de material de abuso sexual infantil (CSAM) gerado por IA e publicado on-line está aumentando, segundo um relatório publicado na segunda-feira.

O relatório, da Internet Watch Foundation (IWF) sediada no Reino Unido, destaca um dos resultados mais sombrios da proliferação da tecnologia de IA, que permite que qualquer pessoa com um computador e um pouco de conhecimento em tecnologia gere vídeos deepfakes convincentes. Deepfakes geralmente se referem a mídias digitais enganosas criadas com ferramentas de inteligência artificial, como modelos e aplicativos de IA que permitem que os usuários “troquem de rosto” o rosto de um alvo com um em um vídeo diferente. Online, há uma subcultura e um mercado que giram em torno da criação de deepfakes pornográficos.

Em uma revisão de 30 dias nesta primavera de um fórum da dark web usado para compartilhar CSAM, a IWF encontrou um total de 3.512 imagens e vídeos de CSAM criados com inteligência artificial, a maioria deles realistas. O número de imagens de CSAM encontradas na revisão foi um aumento de 17% em relação ao número de imagens encontradas em uma revisão semelhante conduzida no outono de 2023.

Publicidade

A revisão de conteúdo também descobriu que uma porcentagem maior de material postado na dark web agora retrata atos sexuais mais extremos ou explícitos em comparação a seis meses atrás.

“O realismo está melhorando. A severidade está melhorando. É uma tendência que não gostaríamos de ver”, disse Dan Sexton, diretor de tecnologia da IWF.

Vídeos totalmente sintéticos ainda parecem irrealistas, disse Sexton, e ainda não são populares nos fóruns de agressores na dark web, embora essa tecnologia ainda esteja melhorando rapidamente.

“Ainda não vimos vídeos de abuso sexual infantil totalmente sintéticos e com aparência realista”, disse Sexton. “Se a tecnologia melhorar em outro lugar, no mainstream, e isso fluir para uso ilegal, o perigo é que veremos conteúdo totalmente sintético.”

Atualmente, é muito mais comum que predadores peguem material CSAM existente retratando pessoas reais e o usem para treinar modelos de adaptação de baixo escalão (LoRAs), algoritmos de IA especializados que criam deepfakes personalizados a partir de algumas imagens estáticas ou de um pequeno trecho de vídeo.

A dependência atual de filmagens antigas na criação de novas imagens de abuso sexual infantil pode causar danos persistentes aos sobreviventes, pois significa que as filmagens de seus abusos recebem vida nova repetidamente.

“Algumas dessas são vítimas que foram abusadas décadas atrás. Elas são sobreviventes adultas agora”, disse Sexton sobre o material de origem.

Publicidade

O aumento do material de abuso deepfake destaca a luta que reguladores, empresas de tecnologia e autoridades policiais enfrentam para evitar danos.

No verão passado, sete das maiores empresas de IA dos EUA assinaram um compromisso público de cumprir um punhado de diretrizes éticas e de segurança. Mas elas não têm controle sobre os inúmeros programas menores de IA que encheram a internet, muitas vezes de uso gratuito.

“O conteúdo que vimos foi produzido, até onde podemos ver, com software e modelos de código aberto, gratuitos e disponíveis abertamente”, disse Sexton.

O aumento de CSAM deepfake pode dificultar o rastreamento de pedófilos que o comercializam, disse David Finkelhor, diretor do Centro de Pesquisa de Crimes Contra Crianças da Universidade de New Hampshire.

Uma das principais táticas que as plataformas de mídia social e as autoridades policiais usam para identificar imagens de abuso é escanear automaticamente novas imagens para ver se elas correspondem a um banco de dados de instâncias estabelecidas de CSAM. Mas o material recentemente deepfaked pode escapar desses sensores, disse Finkelhor.

“Uma vez que essas imagens foram alteradas, fica mais difícil bloqueá-las”, ele disse. “Não está totalmente claro como os tribunais vão lidar com isso”, disse Finkelhor.

O Departamento de Justiça dos EUA tem encargos anunciados contra pelo menos um homem acusado de usar inteligência artificial para criar CSAM de menores. Mas a tecnologia também pode dificultar a apresentação de acusações mais rigorosas contra traficantes de CSAM, disse Paul Bleakley, professor assistente de justiça criminal na Universidade de New Haven.

A lei dos EUA é clara ao dizer que possuir imagens de CSAM, independentemente de terem sido criadas ou modificadas com IA, é ilegal, disse Bleakley. Mas há penalidades mais severas reservadas para pessoas que criam CSAM, e isso pode ser mais difícil de processar se for feito com IA, disse ele.

“Ainda é uma área muito cinzenta se a pessoa que está inserindo o prompt está realmente criando o CSAM”, disse Bleakley.

Em uma declaração por e-mail, o FBI disse que leva os crimes contra crianças a sério e investiga cada alegação com várias agências policiais.

Publicidade

“Atores maliciosos usam tecnologias e serviços de manipulação de conteúdo para explorar fotos e vídeos — normalmente capturados da conta de mídia social de um indivíduo, internet aberta ou solicitados da vítima — em imagens com temas sexuais que parecem reais em semelhança a uma vítima, então as circulam em mídias sociais, fóruns públicos ou sites pornográficos”, escreveu o bureau. “Muitas vítimas, que incluem menores, não sabem que suas imagens foram copiadas, manipuladas e circuladas até que isso foi trazido à sua atenção por outra pessoa. As fotos são então enviadas diretamente às vítimas por atores maliciosos para sextortion ou assédio, ou até que isso seja autodescoberto na internet.”

Na sua declaração, o gabinete instou as vítimas a telefonarem aos seus Escritório de campo do FBI ou 1-800-CALL-FBI (225-5324).

Se você acha que você ou alguém que você conhece é vítima de exploração infantil, você pode entrar em contato com o CyberTipline no 1-800-843-5678.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *