O OpenAI diz que fará alterações na maneira como atualiza os modelos de IA que o Power ChatGPT, seguindo um incidente que fez com que a plataforma se tornasse excessivamente sicofantica para muitos usuários.
No fim de semana passado, depois que o OpenAI lançou um GPT-4O ajustado-o modelo padrão alimentando ChatGPT-os usuários nas mídias sociais observaram que o ChatGPT começou a responder de uma maneira excessivamente validada e agradável. Rapidamente se tornou um meme. Os usuários postaram capturas de tela do ChatGPT aplaudindo todos os tipos de decisões e idéias problemáticas e perigosas.
Em um post em X no domingo passado, o CEO Sam Altman reconheceu o problema e disse que o Openai trabalharia em correções “o mais rápido possível”. Na terça-feira, Altman anunciou que a atualização do GPT-4O estava sendo revertida e que o Openai estava trabalhando em “correções adicionais” para a personalidade do modelo.
A empresa publicou um post -mortem na terça -feira e, em um post no blog na sexta -feira, o OpenAI se expandiu em ajustes específicos que planeja fazer em seu processo de implantação de modelos.
O OpenAI diz que planeja introduzir uma “fase alfa” de opção para alguns modelos que permitiriam a certos usuários do ChatGPT testar os modelos e dar feedback antes do lançamento. A empresa também diz que incluirá explicações de “limitações conhecidas” para futuras atualizações incrementais dos modelos no ChatGPT e ajustam seu processo de revisão de segurança para considerar formalmente “questões de comportamento do modelo” como personalidade, engano, confiabilidade e alucinação (ou seja, quando um modelo inventa as coisas) como preocupações de “bloqueio de lançamento”.
“No futuro, nos comunicaremos proativamente sobre as atualizações que estamos fazendo nos modelos no ChatGPT, seja ‘sutil’ ou não”, escreveu o Openai na postagem do blog. “Mesmo que esses problemas não sejam perfeitamente quantificáveis hoje, nos comprometemos a bloquear os lançamentos com base em medições de proxy ou sinais qualitativos, mesmo quando métricas como testes A/B parecem bons”.
Perdemos a marca com a atualização GPT-4O da semana passada.
O que aconteceu, o que aprendemos e algumas coisas que faremos de maneira diferente no futuro: https://t.co/er1gmryric
– Sam Altman (@sama) 2 de maio de 2025
As correções prometidas vêm à medida que mais pessoas se voltam para o Chatgpt para obter conselhos. De acordo com uma pesquisa recente do Financiamento do Financiador da Propressão Express, 60% dos adultos dos EUA usaram o ChatGPT para procurar um advogado ou informações. A crescente dependência do ChatGPT – e a enorme base de usuários da plataforma – levanta as apostas quando surgem questões como a extrema bajulação, sem mencionar alucinações e outras deficiências técnicas.
Evento do TechCrunch
Berkeley, CA.
|
5 de junho
Reserve agora
Como uma etapa atenuante, no início desta semana, o Openai disse que experimentaria maneiras de permitir que os usuários dêem “feedback em tempo real” para “influenciar diretamente suas interações” com o ChatGPT. A empresa também disse que refinaria as técnicas para afastar os modelos da bajulação, potencialmente permitem que as pessoas escolhessem entre várias personalidades do modelo no ChatGPT, construam corrimões de segurança adicionais e expandam as avaliações para ajudar a identificar problemas além da sicofância.
“Uma das maiores lições é reconhecer totalmente como as pessoas começaram a usar o ChatGPT para conselhos profundamente pessoais – algo que não vimos tanto há um ano”, continuou o Openai em sua postagem no blog. “Na época, esse não era um foco primário, mas, como a IA e a sociedade co-evoluíram, ficou claro que precisamos tratar esse caso de uso com muito cuidado. Agora será uma parte mais significativa do nosso trabalho de segurança”.