A Microsoft e seu modelo de inteligência artificial (IA) de agregação de notícias do MSN destacou recentemente uma notícia que alegava, erroneamente, que o Presidente Joe Biden teria cochilado durante um momento de silêncio para as vítimas dos incêndios em Maui. Além disso, a inteligência artificial ainda noticiou um obituário que rotulou de “inútil” um jogador da NBA… e essas são só algumas das várias falhas da IA.
Uma equipe editorial humana provavelmente teria identificado e corrigido esses erros, diferentemente do sistema da Microsoft que, após abandonar a supervisão humana por algoritmos há alguns anos, falhou em fazê-lo. Conforme relatado pela CNN, a Microsoft está no centro de um problema mais amplo: a utilização de modelos de Inteligência Artificial (IA) na agregação de notícias.
As falhas não pararam por aí. Outras implementações equivocadas da IA foram observadas, como um guia de viagem que sugeria aos turistas em Ottawa fazerem uma refeição no banco alimentar local, e uma enquete criada por IA que questionava os leitores sobre a causa da morte de uma jovem mulher. Estas situações colocam em xeque a eficácia e sensibilidade dos algoritmos em lidar com tópicos delicados e informações precisas.
O que temos observado é que seu sistema automatizado continua promovendo ou gerando conteúdo com linguagem desnecessariamente perturbadora e informações falsas.
Copyright © 2021-2026. Onjornal - Todos os direitos reservados.