O Falcon 180B é um modelo de linguagem de código aberto criado pelo Instituto de Inovação Tecnológica (TII). É um dos maiores modelos de linguagem já criados, com 180 bilhões de parâmetros. Ele foi treinado em um conjunto de dados de 3,5 trilhões de tokens, o que lhe permite realizar uma ampla gama de tarefas de linguagem natural, incluindo tradução, resumo, geração de texto e resposta a perguntas.
O Falcon 180B obtém resultados de ponta em tarefas de linguagem natural, superando a tabela de classificação do Hugging Face para modelos de acesso aberto pré-treinados. No entanto, o modelo tem uma falha importante: ele carece de grades de proteção de alinhamento. Isso significa que o modelo pode produzir saídas problemáticas, especialmente se solicitado.
O TII lançou recentemente dois modelos Falcon 180B: uma versão base e uma versão ajustada nos dados de bate-papo e instruções. A versão base está disponível para uso comercial, mas sob condições muito restritivas. A licença completa está disponível no site do TII.
O Falcon 180B é um modelo de linguagem poderoso com potencial para uma ampla gama de aplicações. No entanto, os usuários devem estar cientes de suas limitações antes de usá-lo. Apesar disso, o modelo se mostra promissor, já que funciona em código aberto.
Veja também:
Este post foi modificado pela última vez em %s = human-readable time difference 12:28
O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…
Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…
O Google acabou de lançar o que está chamando de um novo modelo de inteligência…
A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…
A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…
O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…