Xai culpa a obsessão de Grok pelo genocídio branco em uma ‘modificação não autorizada’

Xai culpou uma “modificação não autorizada” por um bug em seu chatbot Grok, movido a IA, que fez Grok se referir repetidamente a “genocídio branco na África do Sul” quando invocado em certos contextos em X.

Na quarta -feira, Grok começou a responder a dezenas de postagens em X com informações sobre o genocídio branco na África do Sul, mesmo em resposta a assuntos não relacionados. As respostas estranhas surgiram da conta X da GROK, que responde aos usuários com postagens geradas pela IA sempre que uma pessoa tag “@grok”.

De acordo com um post na quinta-feira da conta Official X da XAI, uma mudança foi feita quarta-feira de manhã para o prompt do sistema do Grok Bot-as instruções de alto nível que guiam o comportamento do bot-que instruíram Grok a fornecer uma “resposta específica” sobre um “tópico político”. Xai diz que o ajuste “violou (suas) políticas internas e valores essenciais” e que a empresa “conduziu uma investigação completa”.

É a segunda vez que Xai reconhece publicamente uma mudança não autorizada no código de Grok fez com que a IA respondesse de maneiras controversas.

In February, Grok briefly censored unflattering mentions of Donald Trump and Elon Musk, the billionaire founder of xAI and owner of X. Igor Babuschkin, an xAI engineering lead, said that Grok had been instructed by a rogue employee to ignore sources that mentioned Musk or Trump spreading misinformation, and that xAI reverted the change as soon as users began pointing it out.

Xai disse na quinta -feira que fará várias alterações para impedir que incidentes semelhantes ocorram no futuro.

A partir de hoje, a Xai publicará o sistema de Grok no GitHub e em um Changelog. A empresa diz que também “estabelecerá cheques e medidas adicionais” para garantir que os funcionários da XAI não possam modificar o prompt do sistema sem revisar e estabelecer uma “equipe de monitoramento 24/7 para responder a incidentes com as respostas de Grok que não são capturadas por sistemas automatizados”.

Apesar dos avisos frequentes de Musk sobre os perigos de Ai não controlaram, Xai tem um pobre histórico de segurança da IA. Um relatório recente descobriu que Grok despiria fotos de mulheres quando solicitado. O chatbot também pode ser consideravelmente mais grosseiro do que a IA como o Gemini e o Chatgpt, do Google, xingando sem muita restrição de falar.

Um estudo da Saferéi, uma organização sem fins lucrativos que tem como objetivo melhorar a responsabilidade dos laboratórios de IA, encontrou a XAI classificando mal a segurança entre seus pares, devido às suas práticas “muito fracas” de gerenciamento de riscos. No início deste mês, a Xai perdeu um prazo auto-imposto para publicar uma estrutura de segurança de IA finalizada.

 
 

Veja também