O Modo de AI do Google, o recurso experimental de pesquisa do Google que permite que os usuários façam perguntas complexas e de várias partes por meio de uma interface de IA, lançarão para todos nos EUA a partir desta semana, anunciou a empresa em sua conferência anual de desenvolvedor, o Google I/O 2025, na terça-feira.
O recurso se baseia na experiência de pesquisa existente de IA do Google, uma visão geral da IA, que exibem resumos gerados pela IA na parte superior da página de resultados de pesquisa. Lançados no ano passado, as visões gerais da IA viram resultados mistos, pois a IA do Google oferece respostas e conselhos questionáveis, como uma sugestão para usar cola na pizza, entre outras coisas.
No entanto, o Google afirma que a visão geral da IA é um sucesso em termos de adoção, se não a precisão, pois mais de 1,5 bilhão de usuários mensais usaram o recurso de IA. Agora ele sairá de laboratórios. Expandir para mais de 200 países e territórios e tornar -se disponível em mais de 40 idiomas, diz a empresa.
Enquanto isso, o Modo AI permite que os usuários façam perguntas complexas e fazem acompanhamentos. Inicialmente disponível nos laboratórios de pesquisa do Google para testes, o recurso chegou como outras empresas de IA, como Perplexity e OpenAI, expandiram -se para o território do Google com os recursos de pesquisa da web. Preocupado com a participação de mercado potencialmente de pesquisa em rivais, o modo AI representa o discurso do Google para a aparência do futuro da pesquisa.
À medida que o modo AI é lançado de maneira mais ampla, o Google está divulgando alguns de seus novos recursos, incluindo pesquisas profundas. Enquanto o modo de IA faz uma pergunta e divide -o em diferentes subtópicos para responder à sua consulta, a pesquisa profunda o faz em escala. Ele pode emitir dezenas ou até centenas de consultas para fornecer suas respostas, o que também incluirá links para que você possa pesquisar na pesquisa.
O resultado é um relatório totalmente citado gerado em minutos, potencialmente economizando horas de pesquisa, diz o Google.
A empresa sugeriu o uso do recurso de pesquisa profunda para fazer compras de comparação, seja para um eletrodoméstico grande ou um acampamento de verão para as crianças.
Outro recurso de compras movido a IA que chega ao modo AI é uma opção virtual “Experimente” para vestuário, que usa uma imagem carregada de si mesmo para gerar uma imagem de si mesmo usando o item em questão. O recurso terá uma compreensão das formas 3D e dos tipos de tecidos, e Stretch, no Google Notes, e começará a ser lançado hoje em laboratórios de pesquisa.
Nos próximos meses, o Google diz que oferecerá uma ferramenta de compras para usuários que comprarão itens em seu nome depois de atingir um preço específico. (Você ainda terá que clicar em “Compre para mim” para iniciar esse agente, no entanto.)
As visões gerais da IA e o Modo AI agora usarão uma versão personalizada do Gemini 2.5, e o Google diz que os recursos do Modo de AI serão gradualmente lançados para as visões gerais da IA ao longo do tempo.
O Modo de AI também apoiará o uso de dados complexos em consultas esportivas e financeiras, disponíveis nos laboratórios em algum momento “em breve”. Isso permite que os usuários façam perguntas complexas – como “Compare as porcentagens de vitória em casa da Philies and White Sox em casa por ano nas últimas cinco temporadas”. A IA pesquisará em várias fontes, reunirá esses dados em uma única resposta e até criará visualizações em tempo real para ajudá -lo a entender melhor os dados.
Outro recurso aproveita o Project Mariner, o agente do Google que pode interagir com a Web para executar ações em seu nome. Inicialmente disponível para consultas envolvendo restaurantes, eventos e outros serviços locais, o Modo AI economizará tempo pesquisando preços e disponibilidade em vários sites para encontrar a melhor opção – como ingressos acessíveis, por exemplo.
Pesquise ao vivo, lançado no final deste verão, permitirá que você faça perguntas com base no que a câmera do seu telefone está vendo em tempo real. Isso vai além dos recursos de pesquisa visual do Google Lens, pois você pode ter uma conversa interativa com a IA usando vídeo e áudio, semelhante ao sistema de IA multimodal do Google, o Project Astra.
Os resultados da pesquisa também serão personalizados com base em suas pesquisas anteriores e se você optar por conectar seus aplicativos do Google usando um recurso que será lançado neste verão. Por exemplo, se você conectar seu Gmail, o Google poderá saber sobre suas datas de viagem a partir de um email de confirmação de reserva e usá -lo para recomendar eventos na cidade que você está visitando que estará ocorrendo enquanto estiver lá. (Esperando alguma reação sobre as preocupações com a privacidade, o Google observa que você pode conectar ou desconectar seus aplicativos a qualquer momento.)
O Gmail é o primeiro aplicativo a ser suportado com contexto personalizado, observa a empresa.