“Grandes modelos de hoje serão pequenos modelos em apenas alguns anos”, prevê pesquisador da OpenAI

O pesquisador de inteligência artificial (IA) Hyung Won Chung, membro da equipe OpenAI e ex-funcionário do Google Brain, entregou um discurso de 45 minutos falando sobre o mundo dos grandes modelos de linguagem em 2023.

Publicado por
Uesley Durães

Chung, conhecido por ser o primeiro autor do artigo do Google intitulado “Modelos de linguagem com instruções de dimensionamento,” apresentou uma visão detalhada do estado atual e futuro da pesquisa em IA e modelos de linguagem.

Em seu discurso, Chung enfatizou a natureza dinâmica do mundo dos modelos de linguagem extensiva. Ao contrário de campos tradicionais, onde as suposições fundamentais permanecem estáveis, Chung argumentou que o campo de modelos de linguagem está em constante evolução. 

“Grandes modelos de hoje serão pequenos modelos em apenas alguns anos”, comentou. 

Ele enfatizou a importância de abordar as reivindicações sobre as capacidades dos modelos de linguagem com a expressão “for now,” reconhecendo que o que é considerado impossível hoje pode se tornar possível no futuro.

Uma das principais mensagens do discurso foi que os grandes modelos de hoje logo serão considerados pequenos, à medida que a tecnologia continua avançando. 

Chung também dedicou uma parte de sua palestra para elucidar as complexidades dos dados e do paralelismo de modelos, fornecendo informações valiosas sobre o funcionamento interno dessas técnicas.

No discurso, Chung destacou um ponto crítico relacionado à função objetivo usada no pré-treinamento de LLMs, chamada Máxima Verossimilhança. Ele argumentou que essa função poderia representar um obstáculo quando se deseja criar modelos em uma escala muito maior do que o GPT-4, como modelos 10.000 vezes maiores. Para superar esse desafio, Chung sugeriu que o próximo passo no desenvolvimento da IA envolveria o uso de funções de aprendizagem baseadas em algoritmos distintos.

Embora essa abordagem esteja em seus estágios iniciais, Chung destacou esforços contínuos, como o Aprendizado por Reforço com Feedback Humano (RLHF) com Modelagem de Regras, como passos promissores na direção da escalabilidade além das restrições atuais.

Veja também:

Este post foi modificado pela última vez em 13 de outubro de 2023 14:10

Uesley Durães

Posts recentes

Órgão da ONU faz recomendações para governar a IA

Um órgão consultivo de inteligência artificial (IA) das Nações Unidas divulgou na quinta-feira (19) seu…

19 de setembro de 2024

YouTube usará IA para gerar ideias, títulos e até vídeos completos

A inteligência artificial (IA) está se espalhando por todo o portfólio de produtos do Google…

19 de setembro de 2024

LinkedIn está treinando modelos de IA com seus dados

O LinkedIn começou a usar os dados de seus usuários para treinar modelos de inteligência…

19 de setembro de 2024

Lionsgate fecha acordo com empresa de IA para explorar seu vasto catálogo de filmes e séries de TV

A startup de inteligência artificial (IA) Runway fez um nome para si mesma construindo modelos…

18 de setembro de 2024

Golpes com deepfake: sua voz pode ser clonada e usada contra você

Golpistas estão usando a inteligência artificial (IA) para transformar seus vídeos de redes sociais em…

18 de setembro de 2024

Novo modelo da 1X ajuda robôs a agir no mundo; veja como

A 1X desenvolveu seu ‘World Model’, um simulador virtual alimentado por inteligência artificial (IA) para…

18 de setembro de 2024