Inteligência Artificial

Falta transparência nos modelos de IA, aponta estudo de Stanford

Pesquisadores da Universidade de Stanford publicaram nesta quarta (18) um relatório que avalia a transparência dos modelos de fundação de IA, que são modelos de aprendizado de máquina de grande escala que são usados para uma variedade de tarefas, incluindo geração de texto, tradução de idiomas e reconhecimento de imagem.

Publicado por
Uesley Durães

O estudo concluiu que a transparência dos modelos de fundação está em declínio, o que pode representar um risco para a sociedade. Os pesquisadores apontam que a falta de transparência pode dificultar a compreensão e o controle desses modelos, o que pode levar ao uso indevido ou prejudicial.

A pesquisa de Stanford utilizou uma metodologia de avaliação de transparência composta por 13 dimensões, que foram divididas em três categorias:

  • Dados: Esta categoria avalia a quantidade e a qualidade das informações divulgadas pelas empresas sobre os dados usados para treinar os modelos de fundação.
  • Algoritmos: Esta categoria avalia a quantidade e a qualidade das informações divulgadas pelas empresas sobre os algoritmos usados para treinar os modelos de fundação.
  • Resultados: Esta categoria avalia a quantidade e a qualidade das informações divulgadas pelas empresas sobre os resultados dos modelos de fundação.

Vários modelos foram testados

Os pesquisadores avaliaram 10 modelos de fundação de IA, desenvolvidos por empresas como OpenAI, Google, Microsoft e Amazon. O relatório classifica os modelos de fundação de acordo com sua transparência, com o modelo mais transparente recebendo uma pontuação de 53 e o modelo menos transparente recebendo uma pontuação de 11. O modelo mais transparente é o Llama 2 da Meta, enquanto o modelo menos eficiente no quesito é o Titan da Amazon. O GPT-4, da OpenAI, marcou 47 pontos, do total de 100.

Falta transparência nos modelos de IA, aponta estudo de Stanford (Via Centro de Pesquisa em Modelos de Fundação Universidade de Stanford)

Os autores do relatório esperam que o estudo sirva como um despertar para uma maior transparência no campo da IA. Eles também pedem aos governos que criem regulamentações para garantir a eficiência desses modelos de fundação em segurança e privacidade.

Os autores do relatório recomendam que as empresas aumentem a transparência de seus modelos de fundação. Eles também pedem aos governos que criem regulamentações para garantir a segurança desses modelos.

Veja também:

Este post foi modificado pela última vez em %s = human-readable time difference 18:38

Uesley Durães

Posts recentes

Genesis: Um novo patamar para simulações físicas em IA

Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…

20 de dezembro de 2024

Google lança seu próprio modelo de IA de “raciocínio”

O Google acabou de lançar o que está chamando de um novo modelo de inteligência…

19 de dezembro de 2024

GitHub Copilot agora é gratuito

A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…

19 de dezembro de 2024

ChatGPT ganha um novo número de telefone; veja

A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…

19 de dezembro de 2024

Google lança novo benchmark para testar a factualidade de LLMs

O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…

18 de dezembro de 2024

Nvidia lança supercomputador de IA compacto e barato

A Nvidia acaba de apresentar o Jetson Orin Nano Super Developer Kit, um supercomputador de…

18 de dezembro de 2024