A carta, lançada logo antes da Cúpula Internacional de Segurança em IA, em Londres, afirma que a IA tem o potencial de causar danos significativos, como a ampliação da injustiça social, a corrosão da estabilidade social e o enfraquecimento da compreensão compartilhada da realidade. Os especialistas também afirmam que a IA pode ser usada para atividades criminosas ou terroristas em larga escala e para consolidar ou exacerbar desigualdades globais.
PUBLICIDADE
Para mitigar esses riscos, os especialistas pedem que os governos responsabilizem legalmente as empresas pelos danos previsíveis causados por seus sistemas avançados de IA. Eles também recomendam que os governos adotem medidas para enfrentar desafios complexos no desenvolvimento da IA, como supervisão e honestidade, robustez, interpretabilidade, avaliação de risco e desafios emergentes.
“Se gerenciados com cuidado e distribuídos de forma justa, os sistemas avançados de IA podem ajudar a humanidade a curar doenças, elevar os padrões de vida e proteger nossos ecossistemas. As oportunidades que a IA oferece são imensas. Mas, juntamente com os recursos avançados de IA, surgem riscos em larga escala que não estamos no caminho certo para lidar bem. A humanidade está despejando vastos recursos para tornar os sistemas de IA mais poderosos, mas muito menos em segurança e mitigação de danos. Para que a IA seja uma bênção, devemos reorientar; impulsionar as capacidades da IA por si só não é suficiente”, diz um trecho da carta.
O manifesto foi assinado por dezenas de pesquisadores de IA de todo o mundo que representam importantes centros de pesquisa e universidades, incluindo Geoffrey Hinton, Andrew Yao, Daniel Kahneman, Dawn Song e Yuval Noah Harari.
Em resumo, a carta traz como tópicos principais os seguintes temas:
- A IA tem o potencial de causar danos significativos.
- Os regulamentos atuais não conseguem lidar adequadamente com os riscos da IA.
- É necessário alocar recursos significativos para garantir o uso seguro e ético da IA.
- Os governos devem responsabilizar as empresas pelos danos causados por seus sistemas de IA.
- Os governos devem adotar medidas para enfrentar desafios complexos no desenvolvimento da IA.
Veja também: