A Thorn e a All Tech is Human lideram uma iniciativa para impedir que as ferramentas de IA sejam utilizadas para explorar crianças ou gerar material pedopornográfico. Mais de uma dezena de empresas de inteligência artificial, incluindo a OpenAI, a Microsoft, a Google e a Meta comprometeram-se a cumprir os princípios de IA generativa para promover a segurança infantil.
O objetivo desta iniciativa é impedir a criação de material de abuso sexual de crianças gerado por IA (AIG-CSAM) e outros danos sexuais contra crianças e retirá-los das plataformas das redes sociais e motores de busca.
Mais de 104 milhões de arquivos de material suspeito de abuso sexual infantil foram relatados nos EUA apenas em 2023, diz a Thorn. Em Portugal, no ano passado, houve mais vítimas de burlas online a procurar apoio junto da Linha Internet Segura. O número de vítimas de violência sexual baseada em imagens e as denúncias de crimes sexuais contra crianças também aumentaram.
Segundo a Thorn, algumas empresas já concordaram em separar imagens, vídeos e áudio que envolvam crianças de conjuntos de dados com conteúdos para adultos, para evitar que os seus modelos combinem os dois. Outras também adicionam marcas de água para identificar o conteúdo gerado pela IA, mas o método não é infalível: as marcas de água e os metadados podem ser facilmente removidos.
Fonte: SapoTEK
Copyright © 2021-2026. Onjornal - Todos os direitos reservados.