Inteligência Artificial

Pesquisadores renomados lançam carta pedindo mais investimentos em ética e segurança da IA

Um grupo respeitado de pesquisadores de inteligência artificial, incluindo vencedores do Prêmio Turing e ganhadores do Nobel, lançou nesta terça (24) uma carta conjunta pedindo que empresas e governos aloquem um mínimo de um terço de seu financiamento de pesquisa e desenvolvimento de IA para garantir o uso seguro e ético dos sistemas de IA.

Publicado por
Uesley Durães

A carta, lançada logo antes da Cúpula Internacional de Segurança em IA, em Londres, afirma que a IA tem o potencial de causar danos significativos, como a ampliação da injustiça social, a corrosão da estabilidade social e o enfraquecimento da compreensão compartilhada da realidade. Os especialistas também afirmam que a IA pode ser usada para atividades criminosas ou terroristas em larga escala e para consolidar ou exacerbar desigualdades globais.

Para mitigar esses riscos, os especialistas pedem que os governos responsabilizem legalmente as empresas pelos danos previsíveis causados por seus sistemas avançados de IA. Eles também recomendam que os governos adotem medidas para enfrentar desafios complexos no desenvolvimento da IA, como supervisão e honestidade, robustez, interpretabilidade, avaliação de risco e desafios emergentes.

“Se gerenciados com cuidado e distribuídos de forma justa, os sistemas avançados de IA podem ajudar a humanidade a curar doenças, elevar os padrões de vida e proteger nossos ecossistemas. As oportunidades que a IA oferece são imensas. Mas, juntamente com os recursos avançados de IA, surgem riscos em larga escala que não estamos no caminho certo para lidar bem. A humanidade está despejando vastos recursos para tornar os sistemas de IA mais poderosos, mas muito menos em segurança e mitigação de danos. Para que a IA seja uma bênção, devemos reorientar; impulsionar as capacidades da IA por si só não é suficiente”, diz um trecho da carta. 

O manifesto foi assinado por dezenas de pesquisadores de IA de todo o mundo que representam importantes centros de pesquisa e universidades, incluindo Geoffrey Hinton, Andrew Yao, Daniel Kahneman, Dawn Song e Yuval Noah Harari.

Em resumo, a carta traz como tópicos principais os seguintes temas:

  • A IA tem o potencial de causar danos significativos.
  • Os regulamentos atuais não conseguem lidar adequadamente com os riscos da IA.
  • É necessário alocar recursos significativos para garantir o uso seguro e ético da IA.
  • Os governos devem responsabilizar as empresas pelos danos causados por seus sistemas de IA.
  • Os governos devem adotar medidas para enfrentar desafios complexos no desenvolvimento da IA.

Veja também:

Este post foi modificado pela última vez em %s = human-readable time difference 15:24

Uesley Durães

Posts recentes

DeepMind dá um salto gigante na computação quântica com o AlphaQubit

O Google DeepMind acaba de apresentar o AlphaQubit, um sistema de inteligência artificial (IA) que…

21 de novembro de 2024

ChatGPT está mais perto de lançar sua IA visual

Um código recém-descoberto na última versão beta do ChatGPT sugere que a OpenAI pode estar…

21 de novembro de 2024

DeepSeek revela poderosa IA de raciocínio; veja

A empresa chinesa de pesquisa em inteligência artificial (IA), DeepSeek, acaba de lançar o R1-Lite-Preview,…

21 de novembro de 2024

OpenAI lança curso gratuito de IA para professores

A OpenAI e a parceira sem fins lucrativos Common Sense Media lançaram um curso de…

20 de novembro de 2024

Robôs da Figure transformam produção da BMW; saiba como

Brett Adcock, CEO da Figure, postou uma atualização sobre os robôs humanoides da empresa trabalhando…

20 de novembro de 2024

Microsoft revela agentes de IA especializados e ferramentas de automação

A Microsoft acaba de apresentar uma suíte de novos agentes de inteligência artificial (IA) especializados…

20 de novembro de 2024