Meta precisa conquistar os desenvolvedores de IA em seu primeiro Llamacon

Na terça-feira, a Meta está organizando sua primeira conferência de desenvolvedores da Llamacon AI em sua sede da Menlo Park, onde a empresa tentará lançar desenvolvedores na construção de aplicativos com seus modelos abertos de IA de llama. Apenas um ano atrás, isso não era uma venda difícil.

No entanto, nos últimos meses, a Meta lutou para acompanhar os laboratórios de IA “abertos”, como Deepseek e concorrentes comerciais fechados, como o Openai, na corrida de IA em rápida evolução. O Llamacon vem em um momento crítico para a Meta em sua busca para construir um ecossistema de lhama.

Os desenvolvedores vencedores podem ser tão simples quanto o envio de melhores modelos abertos. Mas isso pode ser mais difícil de alcançar do que parece.

Um início promissor precoce

O lançamento da Meta da LLAMA 4 no início deste mês, desenvolvedores desapontados, com uma série de pontuações de referência chegando abaixo de modelos como R1 e V3 da Deepseek. Estava muito longe do que Llama já foi: uma linha de modelos de empurramento de limites.

Quando a Meta lançou seu modelo LLAMA 3.1 405B no verão passado, o CEO Mark Zuckerberg elogiou -o como uma grande vitória. Em uma postagem no blog, a Meta chamada LLAMA 3.1 405B, o “Modelo de Fundação Abertamente Disponível Aberta”, com o melhor modelo de desempenho do OpenAI na época, GPT-4O.

Foi um modelo impressionante, com certeza – e os outros modelos da família Llama 3 da Meta. Jeremy Nixon, que recebeu hackathons na AGI House de São Francisco nos últimos anos, chamado Llama 3 lança “momentos históricos”.

Llama 3, sem dúvida, fez da Meta uma querida entre os desenvolvedores da IA, oferecendo desempenho de ponta com a liberdade de hospedar os modelos onde quer que eles escolherem. Hoje, o modelo Llama 3.3 da Meta é baixado com mais frequência do que o lhama 4, disse a cabeça de produto e crescimento do Face, Jeff Boudier, em uma entrevista.

Contraste isso com a recepção à família Llama 4 da Meta, e a diferença é acentuada. Mas Llama 4 foi controverso desde o início.

Benchmarking Shenanigans

Meta otimizou uma versão de um de seus modelos LLAMA 4, Llama 4 Maverick, para “Conversationality”, o que o ajudou a conquistar um primeiro lugar na arena LM de referência de crowdsourcing. A Meta nunca lançou esse modelo, no entanto – a versão do Maverick que lançou amplamente acabou tendo um desempenho muito pior na LM Arena.

O grupo por trás da LM Arena disse que a Meta deveria ter sido “mais clara” sobre a discrepância. A Ion Stoica, co-fundadora da LM Arena e professora da UC Berkeley, que também co-fundou empresas como qualquer escala e banco de dados, disse ao TechCrunch que o incidente prejudicou a confiança da comunidade de desenvolvedores em meta.

“(Meta) deveria ter sido mais explícito que o modelo Maverick que estava (LM Arena) era diferente do modelo lançado”, disse Stoica ao TechCrunch em entrevista. “Quando isso acontece, é um pouco de perda de confiança com a comunidade. É claro que eles podem recuperá -lo liberando melhores modelos”.

Sem raciocínio

Uma omissão gritante da família Llama 4 era um modelo de raciocínio de IA. Os modelos de raciocínio podem funcionar com cuidado através de perguntas antes de respondê -las. No ano passado, grande parte do setor de IA divulgou modelos de raciocínio, que tendem a ter um melhor desempenho em benchmarks específicos.

A Meta está provocando um modelo de raciocínio llama 4, mas a empresa não indicou quando esperar.

Nathan Lambert, pesquisador da AI2, diz que o fato de Meta não ter lançado um modelo de raciocínio com a LLama 4 sugere que a empresa pode ter apressado o lançamento.

“Todo mundo está lançando um modelo de raciocínio, e isso faz com que seus modelos pareçam tão bons”, disse Lambert. “Por que não poderia (meta) esperar para fazer isso? Eu não tenho a resposta para essa pergunta. Parece uma estranheza normal da empresa.”

Lambert observou que os modelos abertos rivais estão mais próximos da fronteira do que nunca, e que agora vêm em mais formas e tamanhos – aumentando bastante a pressão sobre a meta. Por exemplo, na segunda -feira, o Alibaba lançou uma coleção de modelos, Qwen 3, que supostamente superou alguns dos melhores modelos de codificação do OpenAI e do Google no Codeforces, uma referência de programação.

Para recuperar o líder do modelo aberto, a Meta simplesmente precisa fornecer modelos superiores, de acordo com Ravid Shwartz-Ziv, pesquisador de IA do Centro de Ciência de Dados da NYU. Isso pode envolver correr mais riscos, como empregar novas técnicas, disse ele à TechCrunch.

Não está claro se a Meta está em posição de assumir grandes riscos. Os funcionários atuais e ex -funcionários disseram anteriormente ao Laboratório de Pesquisa da AI da Fortune Meta está “morrendo de uma morte lenta”. A vice -presidente de pesquisa de IA da empresa, Joelle Pineau, anunciou este mês que ela estava saindo.

Llamacon tem a chance do Meta de mostrar o que está cozinhando para vencer os próximos lançamentos da AI Labs como Openai, Google, Xai e outros. Se não conseguir entregar, a empresa poderá ficar ainda mais atrás no espaço ultra competitivo.

Veja também