A superabundância de atenção dada à maneira como as pessoas estão se voltando para o AI Chatbots para obter apoio emocional, às vezes até marcando relacionamentos, geralmente leva a pensar que esse comportamento é comum.
Um novo relatório da Antrópico, que torna o popular AI Chatbot Claude, revela uma realidade diferente: de fato, as pessoas raramente procuram companheirismo de Claude e recorrem ao bot para apoio emocional e conselhos pessoais apenas 2,9% das vezes.
“Companião e roleplay combinadas compreendem menos de 0,5% das conversas”, destacou a empresa em seu relatório.
A Anthrópica diz que seu estudo procurou descobrir insights sobre o uso da IA para “conversas afetivas”, que define como trocas pessoais nas quais as pessoas conversaram com Claude por treinamento, aconselhamento, companheirismo, interpretação ou conselhos sobre relacionamentos. Analisando 4,5 milhões de conversas que os usuários tiveram nas camadas gratuitas e profissionais de Claude, a empresa disse que a grande maioria do uso de Claude está relacionada ao trabalho ou produtividade, com pessoas principalmente usando o chatbot para criação de conteúdo.
Dito isto, o Antrópico descobriu que as pessoas usam Claude com mais frequência para conselhos interpessoais, treinamento e aconselhamento, com os usuários geralmente pedindo conselhos sobre como melhorar a saúde mental, o desenvolvimento pessoal e profissional e estudar habilidades de comunicação e interpessoais.
No entanto, a empresa observa que as conversas em busca de ajuda às vezes podem se transformar em busca de companheirismo nos casos em que o usuário está enfrentando sofrimento emocional ou pessoal, como pavor existencial, solidão ou achado difícil fazer conexões significativas em sua vida real.
“Também percebemos que em conversas mais longas, aconselhamento ou treinamento de treinamento ocasionalmente se transformam em companheirismo – apesar de não ser a razão original que alguém estendeu a mão”, escreveu Anthropic, observando que conversas extensas (com mais de 50 mensagens humanas) não eram a norma.
Anthrópica também destacou outras idéias, como o próprio Claude raramente resiste às solicitações dos usuários, exceto quando sua programação o impede de abordar os limites de segurança, como fornecer conselhos perigosos ou apoiar a auto-mutilação. As conversas também tendem a se tornar mais positivas ao longo do tempo, quando as pessoas buscam treinamento ou conselhos do bot, disse a empresa.
O relatório é certamente interessante – ele faz um bom trabalho ao nos lembrar mais uma vez sobre quanto e muitas vezes as ferramentas de IA estão sendo usadas para fins além do trabalho. Ainda assim, é importante lembrar que a AI Chatbots, em geral, ainda são um trabalho em andamento: eles são alucinados, são conhecidos por fornecer informações erradas ou conselhos perigosos, e como o próprio antrópico reconheceu, pode até recorrer à chantagem.