Inteligência Artificial

Pesquisadores renomados lançam carta pedindo mais investimentos em ética e segurança da IA

Um grupo respeitado de pesquisadores de inteligência artificial, incluindo vencedores do Prêmio Turing e ganhadores do Nobel, lançou nesta terça (24) uma carta conjunta pedindo que empresas e governos aloquem um mínimo de um terço de seu financiamento de pesquisa e desenvolvimento de IA para garantir o uso seguro e ético dos sistemas de IA.

Publicado por
Uesley Durães

A carta, lançada logo antes da Cúpula Internacional de Segurança em IA, em Londres, afirma que a IA tem o potencial de causar danos significativos, como a ampliação da injustiça social, a corrosão da estabilidade social e o enfraquecimento da compreensão compartilhada da realidade. Os especialistas também afirmam que a IA pode ser usada para atividades criminosas ou terroristas em larga escala e para consolidar ou exacerbar desigualdades globais.

Para mitigar esses riscos, os especialistas pedem que os governos responsabilizem legalmente as empresas pelos danos previsíveis causados por seus sistemas avançados de IA. Eles também recomendam que os governos adotem medidas para enfrentar desafios complexos no desenvolvimento da IA, como supervisão e honestidade, robustez, interpretabilidade, avaliação de risco e desafios emergentes.

“Se gerenciados com cuidado e distribuídos de forma justa, os sistemas avançados de IA podem ajudar a humanidade a curar doenças, elevar os padrões de vida e proteger nossos ecossistemas. As oportunidades que a IA oferece são imensas. Mas, juntamente com os recursos avançados de IA, surgem riscos em larga escala que não estamos no caminho certo para lidar bem. A humanidade está despejando vastos recursos para tornar os sistemas de IA mais poderosos, mas muito menos em segurança e mitigação de danos. Para que a IA seja uma bênção, devemos reorientar; impulsionar as capacidades da IA por si só não é suficiente”, diz um trecho da carta. 

O manifesto foi assinado por dezenas de pesquisadores de IA de todo o mundo que representam importantes centros de pesquisa e universidades, incluindo Geoffrey Hinton, Andrew Yao, Daniel Kahneman, Dawn Song e Yuval Noah Harari.

Em resumo, a carta traz como tópicos principais os seguintes temas:

  • A IA tem o potencial de causar danos significativos.
  • Os regulamentos atuais não conseguem lidar adequadamente com os riscos da IA.
  • É necessário alocar recursos significativos para garantir o uso seguro e ético da IA.
  • Os governos devem responsabilizar as empresas pelos danos causados por seus sistemas de IA.
  • Os governos devem adotar medidas para enfrentar desafios complexos no desenvolvimento da IA.

Veja também:

Este post foi modificado pela última vez em %s = human-readable time difference 15:24

Uesley Durães

Posts recentes

Google se associa à Apptronik para desenvolver robôs humanoides

O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…

20 de dezembro de 2024

Genesis: Um novo patamar para simulações físicas em IA

Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…

20 de dezembro de 2024

Google lança seu próprio modelo de IA de “raciocínio”

O Google acabou de lançar o que está chamando de um novo modelo de inteligência…

19 de dezembro de 2024

GitHub Copilot agora é gratuito

A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…

19 de dezembro de 2024

ChatGPT ganha um novo número de telefone; veja

A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…

19 de dezembro de 2024

Google lança novo benchmark para testar a factualidade de LLMs

O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…

18 de dezembro de 2024