Créditos da imagem: Curto News/Bing AI

Apple supera o GPT-4 com o novo ReALM

Em um novo estudo, pesquisadores da Apple apresentaram o ReALM, um novo sistema de inteligência artificial capaz de entender tarefas na tela, contexto de conversas e processos em segundo plano.

PUBLICIDADE

Como funciona o ReALM

  • O ReALM usa uma nova abordagem para converter informações da tela em texto. Isso permite que ele ignore parâmetros pesados de reconhecimento de imagem, tornando a IA mais eficiente em dispositivos.
  • O modelo considera tanto o que está na tela do usuário quanto as tarefas ativas.
  • De acordo com o estudo, modelos maiores do ReALM superaram substancialmente o GPT-4, mesmo com menos parâmetros.
  • Imagine: você está navegando em um site e quer ligar para uma empresa. Você poderia dizer para a Siri “ligue para a empresa” e a assistente virtual seria capaz de “ver” o número de telefone na página e fazer a ligação diretamente.

Porque isso importa

O ReALM é um grande avanço para tornar os assistentes de voz mais conscientes do contexto. Ao entender as informações na tela e outros detalhes, a próxima atualização do Siri pode oferecer uma experiência de usuário mais fluida e sem precisar usar as mãos.

Leia também:

Rolar para cima