A OpenAI, dona do ChatGPT, está testando um novo sistema projetado para identificar sinais de extremismo violento em seus usuários. Desenvolvida pela startup neozelandesa ThroughLine, a ferramenta utiliza inteligência artificial para detectar comportamentos de risco e redirecionar essas pessoas para apoio especializado em uma rede que abrange 180 países.
O projeto surge como uma resposta direta à pressão de governos e processos judiciais que acusam empresas de IA de não agirem para impedir episódios de violência. Diferente de apenas bloquear o usuário, o sistema adota um modelo híbrido que combina chatbots treinados por especialistas e o encaminhamento para atendimento humano presencial em serviços de saúde mental.
Segundo os desenvolvedores, a iniciativa foca em não deixar o usuário sem assistência, já que o encerramento abrupto de conversas sensíveis poderia agravar crises. A tecnologia ainda está em fase de testes e pretende servir como uma camada extra de segurança para plataformas digitais, fóruns de jogos e monitoramento parental.
Copyright © 2021-2026. Onjornal - Todos os direitos reservados.