A Microsoft acaba de lançar o Phi-4, um modelo de linguagem de 14B parâmetros que supera concorrentes massivos como o GPT-4o e o Gemini Pro 1.5 em áreas como raciocínio matemático, apesar de uma diferença de tamanho drástica.
PUBLICIDADE
Detalhes do lançamento
- O Phi-4 supera modelos como o Gemini Pro 1.5 em vários benchmarks de matemática e raciocínio complexo, apesar de ser uma fração do tamanho.
- O Phi-4 até mesmo supera seu modelo professor, o GPT-4o, em problemas de Q&A de nível de pós-graduação em STEM e problemas de competição matemática.
- A Microsoft treinou o Phi-4 principalmente em dados sintéticos, usando IA para gerar e validar aproximadamente 400 bilhões de tokens de material de treinamento de alta qualidade.
- O modelo também apresenta um mecanismo atualizado que pode processar entradas mais longas de até 4.000 tokens, o dobro da capacidade do Phi-3.
- O Phi-4 está disponível em uma prévia de pesquisa limitada no Azure AI Foundry, e um lançamento mais amplo está planejado para o Hugging Face.
Por que isso importa
Os modelos Phi da Microsoft continuam a desafiar a tendência de “maior é melhor” na IA, mostrando que modelos menores podem igualar ou exceder as capacidades dos maiores – particularmente em áreas especializadas.
O futuro da inteligência artificial (IA) pode não ser sobre tamanho bruto, mas sobre arquiteturas e abordagens de treinamento mais inteligentes que fazem mais com menos.
Leia também: