Um grupo de especialistas renomados, incluindo dois “padrinhos” da IA, alerta que o mundo não está preparado para os próximos grandes passos na inteligência artificial. Segundo eles, os governos não fizeram o suficiente para regulamentar a tecnologia.
A mudança para sistemas autônomos por parte das empresas de tecnologia pode “amplificar massivamente” o impacto da IA. Por isso, os governos precisam de mecanismos de segurança que acionem ações regulatórias quando os produtos atingem determinados níveis de capacidade.
As recomendações vêm de 25 especialistas, entre eles Geoffrey Hinton e Yoshua Bengio, dois dos três “padrinhos da IA” vencedores do prêmio Turing da ACM – o equivalente ao Nobel na computação – por seus trabalhos.
O alerta surge em um momento em que políticos, especialistas e executivos de tecnologia se preparam para uma cúpula de dois dias em Seul, na Coreia do Sul.
O artigo acadêmico, intitulado “Gerenciando riscos extremos de IA em meio a progresso rápido“, defende a criação de estruturas governamentais de segurança que introduzam requisitos mais rigorosos caso a tecnologia avance rapidamente.
O documento também pede mais financiamento para órgãos recém-criados, como os institutos de segurança de IA do Reino Unido e dos EUA; obrigação de empresas de tecnologia realizarem avaliações de risco mais rigorosas; e restrição do uso de sistemas autônomos de IA em funções sociais importantes.
“A resposta da sociedade, apesar de primeiros passos promissores, é desproporcional à possibilidade de progresso rápido e transformador, o que é esperado por muitos especialistas”, aponta o artigo publicado na revista Science na segunda-feira. “A pesquisa em segurança de IA está atrasada. As iniciativas de governança atuais carecem de mecanismos e instituições para prevenir o mau uso e a imprudência, e mal abordam os sistemas autônomos.”
Uma cúpula global de segurança de IA em Bletchley Park, no Reino Unido, no ano passado, intermediou um acordo voluntário de testes com empresas de tecnologia como Google, Microsoft e Meta de Mark Zuckerberg. Enquanto isso, a União Europeia implementou uma lei de IA e, nos EUA, uma ordem executiva da Casa Branca estabeleceu novas exigências de segurança de IA.
O artigo afirma que sistemas avançados de IA – tecnologia que executa tarefas normalmente associadas a seres inteligentes – poderiam ajudar a curar doenças e elevar a qualidade de vida, mas também carregam a ameaça de corroer a estabilidade social e possibilitar a guerra automatizada. No entanto, ele adverte que a mudança da indústria de tecnologia para o desenvolvimento de sistemas autônomos representa uma ameaça ainda maior.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 18:24
O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…
Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…
O Google acabou de lançar o que está chamando de um novo modelo de inteligência…
A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…
A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…
O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…