Inteligência Artificial

X é proibido de usar tweets europeus para IA

Publicado por
Isabella Caminoto

A plataforma X, anteriormente conhecida como Twitter, foi obrigada a interromper o uso dos dados de seus usuários europeus para treinar seu modelo de inteligência artificial (IA), Grok. A decisão veio após uma ação judicial movida pela Comissão de Proteção de Dados da Irlanda (DPC).

O Caso

A DPC argumentou que a X havia optado forçadamente os cidadãos da União Europeia (UE) para o treinamento do Grok sem pedir permissão. Isso significava que a plataforma estava usando informações pessoais dos usuários, incluindo postagens, para construir sua própria IA como rival do ChatGPT e do Google Gemini.

A Decisão da DPC

A DPC considerou que o processamento de dados pessoais contidos nas postagens públicas dos usuários da UE e do EEE para fins de treinamento do Grok representava um risco aos direitos e liberdades fundamentais dos indivíduos.

No entanto, a DPC decidiu não tomar uma decisão imediata sobre as questões substanciais relacionadas a como e quando os grandes motores de IA da tecnologia usam os dados pessoais dos europeus. Em vez disso, ela encaminhou o caso para o Conselho Europeu de Proteção de Dados (EDPB) para julgamento e definição de regras.

Implicações da Decisão

A decisão da DPC pode ser vista como um retrocesso para a Irlanda como o regulador indiscutível primário das grandes empresas de tecnologia localizadas no país. Em vez disso, ela está evoluindo para um órgão que busca encaminhar decisões-chave para um órgão europeu mais federal.

A DPC também está abordando questões relacionadas ao uso de dados pessoais em modelos de IA em toda a indústria. A decisão de solicitar uma opinião ao EDPB visa iniciar discussões e facilitar um acordo sobre algumas das questões centrais que surgem no contexto do processamento para fins de desenvolvimento e treinamento de um modelo de IA.

A decisão da DPC é um marco importante na regulamentação da IA na Europa. Ela destaca a importância de proteger os dados pessoais dos usuários e estabelecer regras claras para o uso desses dados no desenvolvimento de modelos de IA.

Leia também:

Este post foi modificado pela última vez em %s = human-readable time difference 14:30

Isabella Caminoto

Advogada e mestranda em Direito Internacional, tenho a democracia e a liberdade como bandeiras irrenunciáveis. Sou apaixonada pelos animais e acredito que o bem-estar do nosso planeta deveria ser o destaque diário da pauta da nossa sociedade.

Posts recentes

Genesis: Um novo patamar para simulações físicas em IA

Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…

20 de dezembro de 2024

Google lança seu próprio modelo de IA de “raciocínio”

O Google acabou de lançar o que está chamando de um novo modelo de inteligência…

19 de dezembro de 2024

GitHub Copilot agora é gratuito

A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…

19 de dezembro de 2024

ChatGPT ganha um novo número de telefone; veja

A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…

19 de dezembro de 2024

Google lança novo benchmark para testar a factualidade de LLMs

O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…

18 de dezembro de 2024

Nvidia lança supercomputador de IA compacto e barato

A Nvidia acaba de apresentar o Jetson Orin Nano Super Developer Kit, um supercomputador de…

18 de dezembro de 2024