Pesquisadores identificam nova vulnerabilidade em modelos de linguagem grande (LLMs)
Pesquisadores identificam nova vulnerabilidade em modelos de linguagem grande (LLMs) Leia mais »
Um estudo realizado pelo Laboratório de Visão e Aprendizagem Computacional da Universidade da Califórnia descobriu que os modelos de linguagem grandes (LLMs) são capazes de raciocínio por analogia. A pesquisa foi divulgada na revista Nature Human Behavior no fim do mês passado.