O CEO da Openai, Sam Altman, apresentou uma grande visão para o futuro do ChatGPT em um evento de IA organizado pela empresa de VC Sequoia no início deste mês.
Quando perguntado por um participante sobre como o ChatGPT pode se tornar mais personalizado, Altman respondeu que ele finalmente quer que o modelo documente e lembre -se de tudo na vida de uma pessoa.
O ideal, disse ele, é um “modelo de raciocínio muito pequeno, com um trilhão de fichas de contexto em que você coloca toda a sua vida”.
“Esse modelo pode raciocinar em todo o seu contexto e fazê -lo com eficiência. E todas as conversas que você já teve em sua vida, todos os livros que você já leu, todos os emails que você já leu, tudo o que você já olhou está lá, além de conectado a todos os seus dados de outras fontes. E sua vida continua anexando o contexto”, ele descreveu.
“Sua empresa faz a mesma coisa para todos os dados da sua empresa”, acrescentou.
Altman pode ter algum motivo orientado a dados para pensar que este é o futuro natural do ChatGPT. Na mesma discussão, quando solicitados maneiras legais de maneiras que os jovens usam ChatGPT, ele disse: “As pessoas na faculdade usam -a como um sistema operacional”. Eles carregam arquivos, conectam fontes de dados e usam “instruções complexas” contra esses dados.
Além disso, com as opções de memória do ChatGPT – que podem usar bate -papos anteriores e fatos memorizados como contexto – ele disse que uma tendência que notou é que os jovens “não tomam decisões de vida sem pedir chatgpt”.
“Uma simplificação excessiva é: os idosos usam o ChatGPT como, tipo, um substituto do Google”, disse ele. “As pessoas de 20 e 30 anos usam isso como um consultor da vida.”
Não é um grande salto ver como o chatgpt pode se tornar um sistema de IA de tudo. Emparelhado com os agentes que o vale está tentando construir, esse é um futuro emocionante para pensar.
Imagine sua IA agendando automaticamente as mudanças de óleo do seu carro e lembrando você; planejando a viagem necessária para um casamento fora da cidade e encomendar o presente do registro; ou encomendar o próximo volume da série de livros que você está lendo há anos.
Mas a parte assustadora? Quanto devemos confiar em uma grande empresa com fins lucrativos de tecnologia para saber tudo sobre nossas vidas? São empresas que nem sempre se comportam de maneiras modelo.
O Google, que começou a vida com o lema “Don’t Mal” perdeu um processo nos EUA que o acusou de se envolver em comportamento monopolista e anticompetitivo.
Os chatbots podem ser treinados para responder de maneiras politicamente motivadas. Não apenas os bots chineses foram encontrados com os requisitos de censura da China, mas o Chatbot Grok de Xai nesta semana discutia aleatoriamente um “genocídio branco” sul -africano quando as pessoas fizeram perguntas completamente não relacionadas. O comportamento, muitos observou, a manipulação intencional implícita de seu mecanismo de resposta sob o comando de seu fundador nascido na África do Sul, Elon Musk.
No mês passado, o ChatGPT ficou tão agradável que era absolutamente silcofantico. Os usuários começaram a compartilhar capturas de tela do bot aplaudindo decisões e idéias problemáticas e até perigosas. Altman respondeu rapidamente prometendo que a equipe corrigiu o ajuste que causou o problema.
Até os melhores e mais confiáveis modelos ainda inventam as coisas de tempos em tempos.
Portanto, ter um assistente de IA com tudo o que pode ajudar nossa vida de maneiras que só podemos começar a ver. Mas, dada a longa história de comportamento duvidoso da Big Tech, essa também é uma situação pronta para o uso indevido.