A Openai teria revisado suas operações de segurança para proteger contra a espionagem corporativa. De acordo com o Financial Times, a empresa acelerou uma reprodução de segurança existente depois que a startup chinesa Deepseek divulgou um modelo concorrente em janeiro, com o OpenAI alegando que a DeepSeek copiava indevidamente seus modelos usando técnicas de “destilação”.
A segurança aprimorada inclui políticas de “tendências de informações” que limitam o acesso da equipe a algoritmos sensíveis e novos produtos. Por exemplo, durante o desenvolvimento do modelo O1 da OpenAI, apenas os membros da equipe verificados que haviam sido lidos no projeto poderiam discuti -lo em espaços de escritório compartilhados, de acordo com o FT.
E há mais. O OpenAI agora isola a tecnologia proprietária em sistemas de computador off-line, implementa controles de acesso biométricos para as áreas de escritório (digitaliza as impressões digitais dos funcionários) e mantém uma política de Internet de “negar por defesa” que exige aprovação explícita para conexões externas, de acordo com o relatório, que acrescenta ainda que a empresa aumentou a segurança física em centantes de dados e expandiu sua cibercilha.
Diz -se que as mudanças refletem preocupações mais amplas sobre os adversários estrangeiros que tentam roubar a propriedade intelectual da OpenAI, embora dadas as guerras de caça furtiva em andamento em meio a empresas americanas de IA e vazamentos cada vez mais frequentes dos comentários do CEO Sam Altman, o OpenAI também pode estar tentando abordar questões de segurança interna.
Entramos em contato com o OpenAI para comentar.