O acesso aos modelos futuros de IA na API do OpenAI pode exigir um ID verificado

O OpenAI pode em breve exigir que as organizações concluam um processo de verificação de identificação para acessar determinados modelos futuros de IA, de acordo com uma página de suporte publicada no site da empresa na semana passada.

O processo de verificação, chamado de organização verificada, é “uma nova maneira de os desenvolvedores desbloquearem o acesso aos modelos e recursos mais avançados da plataforma Openai”, diz a página. A verificação requer uma identificação emitida pelo governo de um dos países apoiados pela API da Openai. Um ID pode verificar apenas uma organização a cada 90 dias, e nem todas as organizações serão elegíveis para verificação, diz o Openai.

“No Openai, levamos nossa responsabilidade a sério para garantir que a IA seja amplamente acessível e usada com segurança”, lê a página. “Infelizmente, uma pequena minoria de desenvolvedores usa intencionalmente as APIs do Openai, violando nossas políticas de uso. Estamos adicionando o processo de verificação para mitigar o uso inseguro da IA, continuando a disponibilizar modelos avançados para a comunidade mais ampla de desenvolvedores”.

O novo processo de verificação pode ser destinado a reforçar a segurança nos produtos da OpenAI, à medida que se tornam mais sofisticados e capazes. A empresa publicou vários relatórios sobre seus esforços para detectar e mitigar o uso malicioso de seus modelos, inclusive por grupos supostamente com sede na Coréia do Norte.

Também pode ter como objetivo impedir o roubo de IP. De acordo com um relatório da Bloomberg no início deste ano, o OpenAI estava investigando se um grupo vinculado à Deepseek, o laboratório de AI com sede na China, exfiltrou grandes quantidades de dados por meio de sua API no final de 2024, possivelmente para modelos de treinamento-uma violação dos termos da OpenAI.

O Openai bloqueou o acesso aos seus serviços na China no verão passado.

Veja também