Inteligência Artificial

Falta transparência nos modelos de IA, aponta estudo de Stanford

Pesquisadores da Universidade de Stanford publicaram nesta quarta (18) um relatório que avalia a transparência dos modelos de fundação de IA, que são modelos de aprendizado de máquina de grande escala que são usados para uma variedade de tarefas, incluindo geração de texto, tradução de idiomas e reconhecimento de imagem.

Publicado por
Uesley Durães

O estudo concluiu que a transparência dos modelos de fundação está em declínio, o que pode representar um risco para a sociedade. Os pesquisadores apontam que a falta de transparência pode dificultar a compreensão e o controle desses modelos, o que pode levar ao uso indevido ou prejudicial.

A pesquisa de Stanford utilizou uma metodologia de avaliação de transparência composta por 13 dimensões, que foram divididas em três categorias:

  • Dados: Esta categoria avalia a quantidade e a qualidade das informações divulgadas pelas empresas sobre os dados usados para treinar os modelos de fundação.
  • Algoritmos: Esta categoria avalia a quantidade e a qualidade das informações divulgadas pelas empresas sobre os algoritmos usados para treinar os modelos de fundação.
  • Resultados: Esta categoria avalia a quantidade e a qualidade das informações divulgadas pelas empresas sobre os resultados dos modelos de fundação.

Vários modelos foram testados

Os pesquisadores avaliaram 10 modelos de fundação de IA, desenvolvidos por empresas como OpenAI, Google, Microsoft e Amazon. O relatório classifica os modelos de fundação de acordo com sua transparência, com o modelo mais transparente recebendo uma pontuação de 53 e o modelo menos transparente recebendo uma pontuação de 11. O modelo mais transparente é o Llama 2 da Meta, enquanto o modelo menos eficiente no quesito é o Titan da Amazon. O GPT-4, da OpenAI, marcou 47 pontos, do total de 100.

Falta transparência nos modelos de IA, aponta estudo de Stanford (Via Centro de Pesquisa em Modelos de Fundação Universidade de Stanford)

Os autores do relatório esperam que o estudo sirva como um despertar para uma maior transparência no campo da IA. Eles também pedem aos governos que criem regulamentações para garantir a eficiência desses modelos de fundação em segurança e privacidade.

Os autores do relatório recomendam que as empresas aumentem a transparência de seus modelos de fundação. Eles também pedem aos governos que criem regulamentações para garantir a segurança desses modelos.

Veja também:

Este post foi modificado pela última vez em 18 de outubro de 2023 18:38

Uesley Durães

Posts recentes

AIED 2024: CESAR School sedia em Recife maior conferência internacional de IA na Educação

A CESAR School, em parceria com diversas universidades brasileiras, recebe na capital pernambucana, entre 8…

5 de julho de 2024

Lucro da Samsung surpreende com alta de mais de 15 vezes graças ao boom da IA

A Samsung Electronics superou estimativas e anunciou na sexta-feira (5) um aumento de mais de…

5 de julho de 2024

Rodovia inteligente do futuro: IA a serviço da segurança no trânsito

Prepare-se para uma nova era na direção: um trecho de 3 km da Interstate 94…

5 de julho de 2024

Empresas chinesas de IA exibem resiliência e inovação em evento do setor, apesar de sanções dos EUA

As principais gigantes da tecnologia chinesa, assim como startups ambiciosas, se reuniram na Conferência Mundial…

5 de julho de 2024

Salesforce avança em modelos compactos; saiba mais

A Salesforce acaba de publicar uma nova pesquisa sobre o APIGen, um sistema automatizado que…

5 de julho de 2024

Gumloop: Revolucione sua gestão de trabalho usando IA

Gumloop é uma plataforma projetada para automatizar fluxos de trabalho empresariais utilizando inteligência artificial (IA),…

5 de julho de 2024