A conferência anual de desenvolvedores do Google, o Google I/O, está marcada para a próxima semana e, como era de se esperar, o tema principal será a inteligência artificial (IA).
A própria empresa não fez mistério sobre isso. Desde o I/O do ano passado, o Google lançou o Gemini, seu novo modelo mais poderoso para competir com o ChatGPT da OpenAI, e vem testando intensamente novos recursos para Busca, Google Maps e Android. Espere ouvir muito sobre essas novidades neste ano.
🇬🇧 Subscribe to the best newsletter about AI (in English 🇬🇧) 🇧🇷 Assine a melhor newsletter sobre IA (em português 🇧🇷)
O Google I/O começa na terça-feira (14), às 10h (horário do Pacífico) / 13h (horário de Brasília) com a palestra principal. Você pode assisti-la no site do Google ou no canal do Google no YouTube canal do Google no YouTube, através do link de transmissão ao vivo incorporado no topo desta página. (Há também uma versão com intérprete de língua de sinais americana.) Reserve um bom tempo para isso; o I/O costuma durar algumas horas.
O Google deixou claro: o I/O deste ano será focado na IA. O Gemini está no mundo – não sem algumas controvérsias – há alguns meses, assim como o Gemma, modelo menor da empresa. Provavelmente, grande parte da palestra abordará como o Google está fundindo a Busca com a IA generativa. A empresa vem testando novos recursos de pesquisa, como prática de conversação por IA para alunos de inglês, e também geração de imagens para compras e provador virtual.
O Google provavelmente também se concentrará em maneiras de transformar seu smartphone em um gadget mais voltado para a IA. Isso significa mais recursos de IA generativa para os aplicativos do Google. Por exemplo, eles têm trabalhado em recursos de IA que ajudam a [encontrar restaurantes e lojas](link para artigo sobre encontrar restaurantes e lojas) ou [localizar carregadores para carros elétricos](link para artigo sobre localizar carregadores para carros elétricos) no Google Maps. O Google também está testando um recurso que [usa IA para ligar para uma empresa](link para artigo sobre recurso que usa IA para ligar para uma empresa) e esperar na espera por você até que haja um humano disponível para falar.
O I/O também pode ver a estreia de uma nova versão mais pessoal do assistente digital, rumores apontam para o nome “Pixie”. O assistente, alimentado pelo Gemini, deve integrar recursos multimodais como a capacidade de tirar fotos de objetos para aprender como usá-los ou obter instruções para comprá-los.
Esse tipo de coisa pode ser uma má notícia para dispositivos como o Rabbit R1 e o Human Ai Pin, lançados recentemente e que lutam para justificar sua existência. No momento, a única vantagem que eles talvez tenham é a dificuldade (embora não seja impossível) de usar um smartphone como um dispositivo vestível de IA.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 14:14
O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…
Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…
O Google acabou de lançar o que está chamando de um novo modelo de inteligência…
A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…
A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…
O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…