O CEO da Openai, Sam Altman, disse que a humanidade está a apenas anos do desenvolvimento de inteligência geral artificial que poderia automatizar a maioria dos trabalhos humanos. Se isso é verdade, a humanidade também merece entender e ter uma opinião sobre as pessoas e a mecânica por trás de uma força tão incrível e desestabilizadora.
Esse é o objetivo orientador de “The Openai Files”, um projeto de arquivo do projeto MIDAS e do projeto de supervisão de tecnologia, duas organizações de vigilância técnica sem fins lucrativos. Os arquivos são uma “coleção de preocupações documentadas com práticas de governança, integridade da liderança e cultura organizacional no OpenAI”. Além de aumentar a conscientização, o objetivo dos arquivos é propor um caminho a seguir para o OpenAI e outros líderes de IA que se concentram na governança responsável, liderança ética e benefícios compartilhados.
“As estruturas de governança e a integridade da liderança que orientam um projeto tão importantes quanto isso deve refletir a magnitude e a gravidade da missão”, lê a visão do site para mudar. “As empresas que lideram a corrida para a AGI devem ser mantidas e devem se manter, padrões excepcionalmente altos”.
Até agora, a corrida para dominar a IA resultou em escala bruta-uma mentalidade de crescimento ao mesmo tempo que levou empresas como o OpenAI a aumentar o conteúdo sem consentimento para fins de treinamento e construir datacenters maciços que estão causando interrupções de energia e aumentando os custos de eletricidade para os consumidores locais. A corrida para a comercialização também levou as empresas a enviar produtos antes de colocar as salvaguardas necessárias, pois a pressão dos investidores para aumentar o lucro.
Essa pressão do investidor mudou a estrutura central do OpenAI. Os arquivos do OpenAI detalham como, em seus primeiros dias sem fins lucrativos, o OpenAI limitou inicialmente os lucros dos investidores a um máximo de 100x, de modo que qualquer produto da obtenção da AGI fosse para a humanidade. Desde então, a empresa anunciou planos para remover esse limite, admitindo que fez essas mudanças para apaziguar os investidores que tornaram o financiamento condicional às reformas estruturais.
Os arquivos destacam questões como os processos de avaliação de segurança apressados da Openai e a “cultura da imprudência”, bem como os possíveis conflitos de interesse dos membros do conselho da Openai e do próprio Altman. Eles incluem uma lista de startups que podem estar no próprio portfólio de investimentos da Altman, que também possuem empresas sobrepostas com o OpenAI.
Os arquivos também questionam a integridade de Altman, que tem sido um tópico de especulação desde que os funcionários seniores tentaram expulsá -lo em 2023 sobre “comportamento enganoso e caótico”.
“Eu não acho que Sam seja o cara que deveria ter o dedo no botão de AGI”, disse Ilya Sutskever, ex -cientista -chefe da Openai, teria dito na época.
As perguntas e soluções levantadas pelos arquivos do OpenAI nos lembram que o enorme poder repousa nas mãos de alguns, com pouca transparência e supervisão limitada. Os arquivos fornecem um vislumbre da caixa preta e visam mudar a conversa da inevitabilidade para a responsabilidade.