Dan Milmo Global technology editor
As imagens de abuso sexual infantil criadas pela inteligência artificial estão se tornando “significativamente mais realistas”, de acordo com um vigia de segurança on -line.
O Internet Watch Foundation (IWF) disse que os avanços na IA estão sendo refletidos no conteúdo ilegal criado e consumido pelos pedófilos, dizendo: “Em 2024, a qualidade dos vídeos gerados pela IA melhorou exponencialmente, e todos os tipos de imagens de IA avaliados pareciam significativamente mais realistas à medida que a tecnologia desenvolvida.”
A IWF revelou em seu relatório anual que recebeu 245 relatórios de imagens de abuso sexual infantil geradas pela IA que quebraram a lei do Reino Unido em 2024-um aumento de 380% nos 51 observados em 2023. Os relatórios equivalem a 7.644 imagens e um pequeno número de vídeos, refletindo o fato de que um URL pode conter vários exemplos de material ilegal.
A maior proporção dessas imagens foi o material “Categoria A”, o termo para o tipo mais extremo de conteúdo de abuso sexual infantil que inclui atividade sexual penetrante ou sadismo. Isso foi responsável por 39% do material de IA acionável visto pelo IWF.
O governo anunciado em fevereiro Será ilegal possuir, criar ou distribuir ferramentas de IA projetadas para gerar material de abuso sexual infantil, fechando uma brecha legal que havia alarmado os ativistas da polícia e de segurança on -line. Também se tornará ilegal para alguém possuir manuais que ensinam às pessoas a usar as ferramentas de IA para fazer imagens abusivas ou para ajudá -las a abusar das crianças.
O IWF, que opera uma linha direta no Reino Unido, mas tem uma missão global, disse que as imagens geradas pela IA estão cada vez mais aparecendo na Internet aberta e não apenas na “Web Dark”-uma área da Internet acessada por navegadores especializados. Disse o material mais convincente gerado pela IA pode ser indistinguível de imagens e vídeos reais, mesmo para analistas de IWF treinados.
O relatório anual do Watchdog também anunciou níveis recordes de páginas da web que hospedam imagens de abuso sexual infantil em 2024. A IWF disse que havia 291.273 relatos de imagens de abuso sexual infantil no ano passado, um aumento de 6% em 2023. A maioria das vítimas nos relatórios era meninas.
A IWF também anunciou que estava disponibilizando uma nova ferramenta de segurança para sites menores gratuitamente, para ajudá -los a identificar e impedir a propagação de material de abuso em suas plataformas.
A ferramenta, chamada Image Intercept, pode detectar e bloquear imagens que aparecem em um banco de dados IWF contendo imagens de 2,8m que foram marcadas digitalmente como imagens criminais. O cão de guarda disse que ajudaria plataformas menores a cumprir a recém -introduzida Lei de Segurança Online, que contém disposições sobre como proteger crianças e combater o conteúdo ilegal, como material de abuso sexual infantil.
Derek Ray-Hill, o executivo-chefe interino da IWF, disse que disponibilizar a ferramenta livremente foi um “momento importante na segurança on-line”.
O secretário de Tecnologia, Peter Kyle, disse que o aumento de abuso e sextortion gerados pela IA-onde As crianças estão chantageadas sobre o envio de imagens íntimas – sublinhou como “as ameaças aos jovens on -line estão em constante evolução”. Ele disse que a nova ferramenta de interceptação de imagem era um “exemplo poderoso de como a inovação pode fazer parte da solução para tornar os espaços on -line mais seguros para as crianças”.