ChatGPT ainda não atende aos padrões de precisão de dados da UE; entenda

Os esforços da OpenAI para produzir saídas com menos informações falsas do seu chatbot ChatGPT não são suficientes para garantir plena conformidade com as regras de dados da União Europeia (UE), afirmou um grupo de trabalho na agência de proteção de dados da UE.

PUBLICIDADE

“Embora as medidas tomadas para cumprir o princípio da transparência sejam benéficas para evitar a interpretação incorreta das saídas do ChatGPT, elas não são suficientes para cumprir o princípio da precisão dos dados”, disse o grupo de trabalho – em um relatório divulgado em seu site na sexta-feira (24).

O órgão que reúne as autoridades de proteção de dados nacionais da Europa criou o grupo de trabalho sobre o ChatGPT no ano passado, após reguladores nacionais liderados pela autoridade da Itália levantarem preocupações sobre o serviço de inteligência artificial amplamente utilizado.

As várias investigações lançadas pelos órgãos de fiscalização de privacidade nacionais em alguns estados membros ainda estão em andamento, disse o relatório, acrescentando que, portanto, ainda não era possível fornecer uma descrição completa dos resultados. As conclusões deveriam ser entendidas como um ‘denominador comum’ entre as autoridades nacionais.

PUBLICIDADE

A precisão dos dados é um dos princípios orientadores das regras de proteção de dados da UE.

“De fato, devido à natureza probabilística do sistema, a abordagem de treinamento atual leva a um modelo que também pode produzir saídas tendenciosas ou inventadas”, disse o relatório. “Além disso, as saídas fornecidas pelo ChatGPT são susceptíveis de serem consideradas factualmente precisas pelos usuários finais, incluindo informações relacionadas a indivíduos, independentemente de sua precisão real.”

Leia também:

Rolar para cima