Inteligência Artificial

Falta transparência nos modelos de IA, aponta estudo de Stanford

Pesquisadores da Universidade de Stanford publicaram nesta quarta (18) um relatório que avalia a transparência dos modelos de fundação de IA, que são modelos de aprendizado de máquina de grande escala que são usados para uma variedade de tarefas, incluindo geração de texto, tradução de idiomas e reconhecimento de imagem.

Publicado por
Uesley Durães

O estudo concluiu que a transparência dos modelos de fundação está em declínio, o que pode representar um risco para a sociedade. Os pesquisadores apontam que a falta de transparência pode dificultar a compreensão e o controle desses modelos, o que pode levar ao uso indevido ou prejudicial.

A pesquisa de Stanford utilizou uma metodologia de avaliação de transparência composta por 13 dimensões, que foram divididas em três categorias:

  • Dados: Esta categoria avalia a quantidade e a qualidade das informações divulgadas pelas empresas sobre os dados usados para treinar os modelos de fundação.
  • Algoritmos: Esta categoria avalia a quantidade e a qualidade das informações divulgadas pelas empresas sobre os algoritmos usados para treinar os modelos de fundação.
  • Resultados: Esta categoria avalia a quantidade e a qualidade das informações divulgadas pelas empresas sobre os resultados dos modelos de fundação.

Vários modelos foram testados

Os pesquisadores avaliaram 10 modelos de fundação de IA, desenvolvidos por empresas como OpenAI, Google, Microsoft e Amazon. O relatório classifica os modelos de fundação de acordo com sua transparência, com o modelo mais transparente recebendo uma pontuação de 53 e o modelo menos transparente recebendo uma pontuação de 11. O modelo mais transparente é o Llama 2 da Meta, enquanto o modelo menos eficiente no quesito é o Titan da Amazon. O GPT-4, da OpenAI, marcou 47 pontos, do total de 100.

Falta transparência nos modelos de IA, aponta estudo de Stanford (Via Centro de Pesquisa em Modelos de Fundação Universidade de Stanford)

Os autores do relatório esperam que o estudo sirva como um despertar para uma maior transparência no campo da IA. Eles também pedem aos governos que criem regulamentações para garantir a eficiência desses modelos de fundação em segurança e privacidade.

Os autores do relatório recomendam que as empresas aumentem a transparência de seus modelos de fundação. Eles também pedem aos governos que criem regulamentações para garantir a segurança desses modelos.

Veja também:

Este post foi modificado pela última vez em %s = human-readable time difference 18:38

Uesley Durães

Posts recentes

Microsoft cria IA com memória quase infinita; entenda

Mustafa Suleyman, CEO de inteligência artificial (IA) da Microsoft, acabou de revelar que a empresa…

18 de novembro de 2024

Instituto Arc lança ‘ChatGPT para DNA’

Cientistas do Instituto de Pesquisa Arc acabaram de apresentar o Evo, um modelo de inteligência…

18 de novembro de 2024

Musk vs. OpenAI: Emails revelam a história por trás da ruptura

Novos processos judiciais de Elon Musk contra a OpenAI expuseram emails internos dos primeiros anos…

18 de novembro de 2024

Poesia de IA supera clássicos humanos em teste cego

Um novo estudo de pesquisadores da Universidade de Pittsburgh acabou de revelar que a inteligência…

18 de novembro de 2024

TikTok lança Symphony Creative Studio; veja

O TikTok acaba de lançar o Symphony Creative Studio, uma plataforma de geração de vídeo…

17 de novembro de 2024

Aplicativo de desktop do ChatGPT ganha integração direta com aplicativos

A OpenAI acabou de lançar uma atualização para seu aplicativo de desktop que permite ao…

17 de novembro de 2024