X está pilotando um programa que permite que a IA Chatbots gerar notas da comunidade

A plataforma social X pilotará um recurso que permite que a AI Chatbots gere notas da comunidade.

O Community Notes é um recurso da era do Twitter que Elon Musk expandiu sob sua propriedade do serviço, agora chamado X. Usuários que fazem parte desse programa de verificação de fatos podem contribuir com comentários que adicionam contexto a determinadas postagens, que são verificadas por outros usuários antes de aparecerem em uma postagem. Uma nota da comunidade pode parecer, por exemplo, em um post de um vídeo gerado pela IA que não está claro sobre suas origens sintéticas ou como um adendo a um post enganoso de um político.

As notas se tornam públicas quando alcançam consenso entre grupos que historicamente discordaram nas classificações anteriores.

As anotações da comunidade foram bem-sucedidas o suficiente em X para inspirar a Meta, Tiktok e YouTube para buscar iniciativas semelhantes-a meta eliminou seus programas de verificação de fatos de terceiros em troca desse trabalho de trabalho de baixo custo e de origem da comunidade.

Mas resta saber se o uso de chatbots da IA ​​como verificadores de fatos será útil ou prejudicial.

Essas notas de IA podem ser geradas usando o X’s Grok ou usando outras ferramentas de IA e conectando -as a X por meio de uma API. Qualquer nota que uma IA envie será tratada da mesma forma que uma nota enviada por uma pessoa, o que significa que ela passará pelo mesmo processo de verificação para incentivar a precisão.

O uso da IA, de fato, a verificação parece duvidoso, dado o quão comum é para o AIS alucinar ou compensar o contexto que não se baseia na realidade.

Créditos da imagem:Pesquisa por X Notes Community (abre em uma nova janela)

De acordo com um artigo publicado nesta semana por pesquisadores que trabalham no X Community Notes, é recomendável que os humanos e os LLMs trabalhem em conjunto. O feedback humano pode melhorar a geração de notas de IA através do aprendizado de reforço, com os avaliadores de notas humanas permanecendo como uma verificação final antes que as anotações sejam publicadas.

“O objetivo não é criar um assistente de IA que diga aos usuários o que pensar, mas construir um ecossistema que capacite os seres humanos a pensar mais criticamente e entender melhor o mundo”, diz o artigo. “LLMs e humanos podem trabalhar juntos em um loop virtuoso.”

Mesmo com verificações humanas, ainda há um risco de confiar muito na IA, especialmente porque os usuários poderão incorporar LLMs de terceiros. O ChatGPT da OpenAI, por exemplo, com problemas recentemente experimentados, com um modelo sendo excessivamente silcofantico. Se um LLM priorizar a “utilidade” em relação à conclusão com precisão de uma verificação de fatos, os comentários gerados pela IA poderão acabar sendo imprecisos.

Também há preocupação de que os avaliadores humanos sejam sobrecarregados pela quantidade de comentários gerados pela IA, reduzindo sua motivação para concluir adequadamente esse trabalho voluntário.

Os usuários ainda não devem esperar ver as notas da comunidade gerada pela IA-o X planeja testar essas contribuições de IA por algumas semanas antes de lançá-las de maneira mais ampla se forem bem-sucedidas.

 
 

Veja também