De acordo com uma análise publicada pelo jornal Financial Times, nesta quinta-feira (21), o artigo da Apple, intitulado “LLM in a Flash ”, oferece uma “solução para um gargalo computacional atual”.
PUBLICIDADE
Apple’s AI research signals ambition to catch up with Big Tech rivals https://t.co/zLRvgZ1GV7
— Financial Times (@FT) December 21, 2023
Sua abordagem abriria “caminho para inferência eficaz de LLMs em dispositivos com memória limitada”. A inferência refere-se aos grandes modelos de linguagem e os grandes repositórios de dados que alimentam aplicativos como o ChatGPT. Vale lembrar que os chatbots e LLMs normalmente funcionam em grandes data centers com poder de computação muito maior do que um iPhone.
Este é o segundo artigo da Apple sobre IA generativa este mês e segue medidas anteriores para permitir que modelos de geração de imagens, como o Stable Diffusion, sejam executados em seus chips personalizados.
Os fabricantes de dispositivos e de chips esperam que os novos recursos de IA ajudem a reanimar o mercado de smartphones, que teve o pior ano em uma década, com uma queda estimada de 5% nas remessas, segundo a Counterpoint Research.
PUBLICIDADE
Diferentemente da Microsoft e do Google, que têm se concentrado principalmente no fornecimento de chatbots e outros serviços generativos de IA pela Internet, a pesquisa da Apple sugere que ela se concentrará em IA que pode ser executada diretamente em um iPhone.
Os rivais da Apple, como a Samsung, estão se preparando para lançar um novo tipo de “smartphone AI” no próximo ano. A Counterpoint estimou que mais de 100 milhões de smartphones focados em IA seriam vendidos em 2024, com 40% dos novos dispositivos oferecendo tais capacidades até 2027.
Leia também: