A empresa de AI de Elon Musk, XAI, perdeu um prazo auto-imposto para publicar uma estrutura de segurança de IA finalizada, conforme observado pelo grupo de vigilância The Midas Project.
Xai não é exatamente conhecido por seus fortes compromissos com a segurança da IA, pois é comumente entendida. Um relatório recente constatou que o AI Chatbot da empresa, Grok, despiria fotos de mulheres quando solicitado. Grok também pode ser consideravelmente mais grosseiro do que chatbots como Gemini e Chatgpt, xingando sem muita restrição de falar.
No entanto, em fevereiro, na AI Seoul Summit, uma reunião global de líderes e partes interessadas da IA, a XAI publicou um rascunho de uma estrutura descrevendo a abordagem da empresa à segurança da IA. O documento de oito páginas estabeleceu as prioridades e filosofia de segurança da Xai, incluindo os protocolos de benchmarking da empresa e considerações de implantação de modelos de IA.
Como o projeto MIDAS observou em uma postagem no blog na terça -feira, no entanto, o rascunho se aplicava apenas a modelos futuros de IA não especificados “não estão atualmente em desenvolvimento”. Além disso, não conseguiu articular como a XAI identificaria e implementaria mitigações de risco, um componente central de um documento que a empresa assinou na cúpula da AI Seoul.
No rascunho, Xai disse que planejava lançar uma versão revisada de sua política de segurança “dentro de três meses” – até 10 de maio. O prazo veio e foi sem reconhecimento nos canais oficiais de Xai.
Apesar dos avisos frequentes de Musk sobre os perigos de Ai não controlaram, Xai tem um pobre histórico de segurança da IA. Um estudo recente da Saferéi, uma organização sem fins lucrativos que tem como objetivo melhorar a responsabilidade dos laboratórios de IA, descobriu que a XAI ocupa mal entre seus pares, devido às suas práticas de gerenciamento de riscos “muito fracas”.
Isso não sugere que outros laboratórios de IA estão se saindo dramaticamente melhor. Nos últimos meses, os rivais da XAI, incluindo Google e Openai, aceleraram os testes de segurança e demoraram a publicar relatórios de segurança de modelos (ou ignoraram os relatórios de publicação). Alguns especialistas expressaram preocupação de que a aparente depioritização dos esforços de segurança esteja chegando em um momento em que a IA é mais capaz – e, portanto, potencialmente perigosa – do que nunca.