A conferência anual de desenvolvedores do Google, o Google I/O, está marcada para a próxima semana e, como era de se esperar, o tema principal será a inteligência artificial (IA).
A própria empresa não fez mistério sobre isso. Desde o I/O do ano passado, o Google lançou o Gemini, seu novo modelo mais poderoso para competir com o ChatGPT da OpenAI, e vem testando intensamente novos recursos para Busca, Google Maps e Android. Espere ouvir muito sobre essas novidades neste ano.
🇬🇧 Subscribe to the best newsletter about AI (in English 🇬🇧) 🇧🇷 Assine a melhor newsletter sobre IA (em português 🇧🇷)
O Google I/O começa na terça-feira (14), às 10h (horário do Pacífico) / 13h (horário de Brasília) com a palestra principal. Você pode assisti-la no site do Google ou no canal do Google no YouTube canal do Google no YouTube, através do link de transmissão ao vivo incorporado no topo desta página. (Há também uma versão com intérprete de língua de sinais americana.) Reserve um bom tempo para isso; o I/O costuma durar algumas horas.
O Google deixou claro: o I/O deste ano será focado na IA. O Gemini está no mundo – não sem algumas controvérsias – há alguns meses, assim como o Gemma, modelo menor da empresa. Provavelmente, grande parte da palestra abordará como o Google está fundindo a Busca com a IA generativa. A empresa vem testando novos recursos de pesquisa, como prática de conversação por IA para alunos de inglês, e também geração de imagens para compras e provador virtual.
O Google provavelmente também se concentrará em maneiras de transformar seu smartphone em um gadget mais voltado para a IA. Isso significa mais recursos de IA generativa para os aplicativos do Google. Por exemplo, eles têm trabalhado em recursos de IA que ajudam a [encontrar restaurantes e lojas](link para artigo sobre encontrar restaurantes e lojas) ou [localizar carregadores para carros elétricos](link para artigo sobre localizar carregadores para carros elétricos) no Google Maps. O Google também está testando um recurso que [usa IA para ligar para uma empresa](link para artigo sobre recurso que usa IA para ligar para uma empresa) e esperar na espera por você até que haja um humano disponível para falar.
O I/O também pode ver a estreia de uma nova versão mais pessoal do assistente digital, rumores apontam para o nome “Pixie”. O assistente, alimentado pelo Gemini, deve integrar recursos multimodais como a capacidade de tirar fotos de objetos para aprender como usá-los ou obter instruções para comprá-los.
Esse tipo de coisa pode ser uma má notícia para dispositivos como o Rabbit R1 e o Human Ai Pin, lançados recentemente e que lutam para justificar sua existência. No momento, a única vantagem que eles talvez tenham é a dificuldade (embora não seja impossível) de usar um smartphone como um dispositivo vestível de IA.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 14:14
Mustafa Suleyman, CEO de inteligência artificial (IA) da Microsoft, acabou de revelar que a empresa…
Cientistas do Instituto de Pesquisa Arc acabaram de apresentar o Evo, um modelo de inteligência…
Novos processos judiciais de Elon Musk contra a OpenAI expuseram emails internos dos primeiros anos…
Um novo estudo de pesquisadores da Universidade de Pittsburgh acabou de revelar que a inteligência…
O TikTok acaba de lançar o Symphony Creative Studio, uma plataforma de geração de vídeo…
A OpenAI acabou de lançar uma atualização para seu aplicativo de desktop que permite ao…