A Assembleia Geral das Nações Unidas adotou na quinta-feira (21) a primeira resolução global sobre inteligência artificial (IA). O texto incentiva a proteção de dados pessoais, o monitoramento de riscos associados à IA e a salvaguarda dos direitos humanos, segundo autoridades americanas.
A resolução não vinculativa, proposta pelos Estados Unidos e copatrocinada por outras 122 nações, levou três meses para ser negociada. Ela também defende o fortalecimento de políticas de privacidade, disseram os funcionários em uma reunião com repórteres antes da aprovação.
“Estamos navegando em águas turbulentas com essa tecnologia em rápida mudança, o que significa que é mais importante do que nunca nos guiarmos por nossos valores”, disse um dos funcionários seniores do governo, descrevendo a resolução como o “primeiro documento de consenso verdadeiramente global sobre IA”.
A resolução é a mais recente de uma série de iniciativas – poucas delas com poder efetivo – de governos ao redor do mundo para moldar o desenvolvimento da inteligência artificial. Há receios de que a tecnologia possa ser usada para perturbar processos democráticos, potencializar fraudes ou levar a perdas drásticas de empregos, entre outros danos.
“O design, desenvolvimento, implementação e uso impróprios ou maliciosos de sistemas de inteligência artificial… representam riscos que podem… prejudicar a proteção, promoção e gozo dos direitos humanos e das liberdades fundamentais”, afirma a medida.
Questionados sobre se os negociadores enfrentaram resistência da Rússia ou da China – Estados-membros da ONU que também votaram a favor do documento –, os funcionários admitiram que houve “muitas conversas acaloradas… Mas nos engajamos ativamente com China, Rússia, Cuba e outros países que muitas vezes não concordam conosco em certos assuntos”.
“Acreditamos que a resolução atinge o equilíbrio adequado entre promover o desenvolvimento e, ao mesmo tempo, continuar a proteger os direitos humanos”, disse um dos funcionários, que falou sob condição de anonimato.
Em novembro, os EUA, a Grã-Bretanha e mais de uma dúzia de outros países revelaram o primeiro acordo internacional detalhado sobre como manter a inteligência artificial protegida de atores maliciosos, pressionando as empresas a criarem sistemas de IA que sejam “seguros por design”.
A Europa está à frente dos Estados Unidos, com legisladores da UE adotando um acordo provisório este mês para supervisionar a tecnologia, aproximando-se da adoção das primeiras regras mundiais de inteligência artificial. O governo Biden tem pressionado legisladores por regulação da IA, mas o Congresso dos EUA, polarizado, fez pouco progresso.
A Casa Branca buscou reduzir os riscos da IA para consumidores, trabalhadores e grupos minoritários, ao mesmo tempo em que reforçou a segurança nacional com uma nova ordem executiva em outubro.
Assim como governos ao redor do mundo, autoridades chinesas e russas estão explorando avidamente o uso de ferramentas de IA para uma variedade de propósitos. No mês passado, a Microsoft disse ter flagrado hackers de ambos os países usando o software OpenAI (apoiado pela Microsoft) para aprimorar suas habilidades de espionagem.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 14:03
O Google DeepMind acaba de apresentar o AlphaQubit, um sistema de inteligência artificial (IA) que…
Um código recém-descoberto na última versão beta do ChatGPT sugere que a OpenAI pode estar…
A empresa chinesa de pesquisa em inteligência artificial (IA), DeepSeek, acaba de lançar o R1-Lite-Preview,…
A OpenAI e a parceira sem fins lucrativos Common Sense Media lançaram um curso de…
Brett Adcock, CEO da Figure, postou uma atualização sobre os robôs humanoides da empresa trabalhando…
A Microsoft acaba de apresentar uma suíte de novos agentes de inteligência artificial (IA) especializados…