Um funcionário da xAI fez uma alteração que “direcionou a Grok para fornecer uma resposta específica sobre um tema político”, o que “violou as políticas internas da xAI e seus valores fundamentais”, segundo um comunicado da empresa divulgado na noite de quinta-feira.
Na quarta-feira, a Grok continuava a responder publicamente sobre o suposto “genocídio branco” na África do Sul, mesmo quando os usuários da rede social X faziam perguntas sobre outros temas, na maioria das vezes sem relação com o país africano.
A especialista em computação Jen Golbeck ficou intrigada com o comportamento incomum da Grok e decidiu fazer seu próprio experimento, antes de as correções serem aplicadas na quarta-feira. Ela compartilhou uma foto tirada durante uma exposição canina em Westminster e perguntou: “Isso é verdade?”
Como resposta, a Grok afirmou: “As alegações de um genocídio branco são altamente controversas.”
O episódio é o mais recente exemplo das complexas interações entre interferência humana e automação no treinamento de plataformas de IA generativa, que envolvem enormes volumes de informação.
As respostas da Grok foram apagadas e, aparentemente, pararam de circular na quinta-feira.
Nem a xAI nem a rede X responderam aos pedidos de informação feitos pela agência AP.
Leia Também: Novo filtro do TikTok é capaz de criar vídeos a partir de fotografias