O CEO antrópico afirma que a IA modela alucina menos que os humanos

O CEO antrópico Dario Amodei acredita que os modelos de IA de hoje alucinam ou inventam as coisas e apresentam -os como se fossem verdadeiros, a uma taxa mais baixa do que os humanos, disse ele durante um briefing da imprensa no primeiro evento de desenvolvedor da Anthropic, código com Claude, em São Francisco, na quinta -feira.

Amodei disse tudo isso no meio de um ponto maior que estava fazendo: que as alucinações de IA não são uma limitação no caminho do antropia para a AGI-sistemas de IA com inteligência no nível humano ou melhor.

“Isso realmente depende de como você o mede, mas suspeito que os modelos de IA provavelmente alucinem menos que os humanos, mas eles alucinam de maneiras mais surpreendentes”, disse Amodei, respondendo à pergunta do TechCrunch.

O CEO da Anthropic é um dos líderes mais otimistas da indústria sobre a perspectiva de modelos de IA alcançarem a AGI. Em um artigo amplamente divulgado que ele escreveu no ano passado, Amodei disse acreditar que AGI poderia chegar até 2026. Durante o briefing da imprensa de quinta -feira, o Anthrópico CEO disse que estava vendo um progresso constante para esse fim, observando que “a água está subindo em todos os lugares”.

“Todo mundo está sempre procurando esses blocos rígidos sobre o que (ai) pode fazer”, disse Amodei. “Eles não estão em lugar algum para serem vistos. Não existe tal coisa.”

Outros líderes da IA ​​acreditam que a alucinação apresenta um grande obstáculo à obtenção da AGI. No início desta semana, o CEO do Google Deepmind, Demis Hassabis, disse que os modelos de IA de hoje têm muitos “buracos” e erram muitas perguntas óbvias. Por exemplo, no início deste mês, um advogado que representa o Antrópico foi forçado a se desculpar no tribunal depois que eles usaram Claude para criar citações em um processo judicial, e o AI Chatbot alucinou e errou nomes e títulos.

É difícil verificar a reivindicação de Amodei, principalmente porque a maioria dos benchmarks de alucinação Pit IA se modifica; Eles não comparam modelos com os humanos. Certas técnicas parecem estar ajudando as taxas de alucinação mais baixas, como fornecer aos modelos de IA acesso à pesquisa na web. Separadamente, alguns modelos de IA, como o GPT-4.5 do OpenAI, têm taxas de alucinação notavelmente mais baixas nos benchmarks em comparação com as gerações precoces de sistemas.

No entanto, também há evidências que sugerem que as alucinações estão piorando nos modelos avançados de IA de raciocínio. Os modelos O3 e O4-mini da Openai têm taxas de alucinação mais altas do que os modelos de raciocínio da geração anterior da OpenAI, e a empresa não entende realmente o porquê.

Mais tarde, no briefing da imprensa, Amodei apontou que as emissoras de TV, políticos e humanos em todos os tipos de profissões cometem erros o tempo todo. O fato de a IA cometer erros também não é uma batida em sua inteligência, de acordo com Amodei. No entanto, o CEO da Anthropic reconheceu a confiança com a qual os modelos de IA apresentam coisas falsas, pois os fatos podem ser um problema.

De fato, a Anthrópica fez uma boa quantidade de pesquisas sobre a tendência de os modelos de IA enganarem os seres humanos, um problema que parecia especialmente prevalecente no recentemente lançado Claude Opus 4. Apollo chegou ao ponto de sugerir antropia não deveria ter lançado esse modelo inicial. A Anthrópica disse que criou algumas mitigações que pareciam abordar os problemas levantados.

Os comentários de Amodei sugerem que o antrópico pode considerar um modelo de IA como AGI, ou igual à inteligência em nível humano, mesmo que ainda alucina. Uma IA que alucina pode ficar aquém da AGI pela definição de muitas pessoas.

 
 

Veja também