O Falcon 180B é um modelo de linguagem de código aberto criado pelo Instituto de Inovação Tecnológica (TII). É um dos maiores modelos de linguagem já criados, com 180 bilhões de parâmetros. Ele foi treinado em um conjunto de dados de 3,5 trilhões de tokens, o que lhe permite realizar uma ampla gama de tarefas de linguagem natural, incluindo tradução, resumo, geração de texto e resposta a perguntas.
O Falcon 180B obtém resultados de ponta em tarefas de linguagem natural, superando a tabela de classificação do Hugging Face para modelos de acesso aberto pré-treinados. No entanto, o modelo tem uma falha importante: ele carece de grades de proteção de alinhamento. Isso significa que o modelo pode produzir saídas problemáticas, especialmente se solicitado.
O TII lançou recentemente dois modelos Falcon 180B: uma versão base e uma versão ajustada nos dados de bate-papo e instruções. A versão base está disponível para uso comercial, mas sob condições muito restritivas. A licença completa está disponível no site do TII.
O Falcon 180B é um modelo de linguagem poderoso com potencial para uma ampla gama de aplicações. No entanto, os usuários devem estar cientes de suas limitações antes de usá-lo. Apesar disso, o modelo se mostra promissor, já que funciona em código aberto.
Veja também:
Este post foi modificado pela última vez em %s = human-readable time difference 12:28
Cientistas do Instituto de Pesquisa Arc acabaram de apresentar o Evo, um modelo de inteligência…
Novos processos judiciais de Elon Musk contra a OpenAI expuseram emails internos dos primeiros anos…
Um novo estudo de pesquisadores da Universidade de Pittsburgh acabou de revelar que a inteligência…
O TikTok acaba de lançar o Symphony Creative Studio, uma plataforma de geração de vídeo…
A OpenAI acabou de lançar uma atualização para seu aplicativo de desktop que permite ao…
A OpenAI acaba de apresentar um plano abrangente para a infraestrutura de inteligência artificial (IA))…