A Áustria pediu, na última segunda-feira (29), por novos esforços para regular o uso da inteligência artificial (IA) em sistemas de armas que poderiam criar os chamados ‘robôs assassinos’, ao sediar uma conferência com o objetivo de reviver discussões em grande parte estagnadas sobre o assunto.
Com a tecnologia de IA avançando rapidamente, sistemas de armas que poderiam matar sem intervenção humana estão se aproximando cada vez mais, apresentando desafios éticos e legais que a maioria dos países diz ser necessário abordar em breve.
🇬🇧 Subscribe to the best newsletter about AI (in English 🇬🇧) 🇧🇷 Assine a melhor newsletter sobre IA (em português 🇧🇷)
“Não podemos deixar este momento passar sem tomar medidas. Agora é o momento de concordar com regras e normas internacionais para garantir o controle humano,” disse o Ministro das Relações Exteriores da Áustria, Alexander Schallenberg.
“Pelo menos vamos garantir que a decisão mais profunda e abrangente, quem vive e quem morre, permaneça nas mãos dos humanos e não das máquinas,” disse ele em um discurso de abertura da conferência intitulada “Humanidade na Encruzilhada: Sistemas Autônomos de Armas e o Desafio da Regulação”.
Anos de discussões nas Nações Unidas produziram poucos resultados tangíveis e muitos participantes na conferência de dois dias em Viena disseram que o tempo para ação está se esgotando rapidamente.
“É tão importante agir e agir muito rápido,” disse a presidente do Comitê Internacional da Cruz Vermelha, Mirjana Spoljaric, em um painel de discussão na conferência.
“O que vemos hoje nos diferentes contextos de violência são falhas morais diante da comunidade internacional. E não queremos ver tais falhas acelerando ao atribuir a responsabilidade pela violência, pelo controle sobre a violência, às máquinas e algoritmos,” acrescentou.
A IA já está sendo usada no campo de batalha. Drones na Ucrânia são projetados para encontrar seu próprio caminho até o alvo quando a tecnologia de interferência de sinal os desconecta de seu operador, dizem diplomatas. Os Estados Unidos disseram neste mês que estavam investigando um relatório da mídia de que o exército israelense tem usado IA para ajudar a identificar alvos de bombardeio em Gaza.
“Já vimos a IA cometendo erros de seleção de maneiras grandes e pequenas, desde reconhecer erroneamente a cabeça calva de um árbitro como uma bola de futebol, até mortes de pedestres causadas por carros autônomos incapazes de reconhecer pedestres atravessando fora da faixa,” disse Jaan Tallinn, um programador de software e investidor em tecnologia, em um discurso de abertura.
“Devemos ser extremamente cautelosos quanto à confiabilidade desses sistemas, seja nos setores militares ou civis.”
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 17:27
O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…
Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…
O Google acabou de lançar o que está chamando de um novo modelo de inteligência…
A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…
A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…
O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…