Um alto funcionário da Força Aérea dos EUA causou polêmica ao relatar que um drone com inteligência artificial treinado para destruição virou-se contra seu operador humano durante uma simulação. IA não matou humano.
No entanto, o oficial corrigiu sua declaração, afirmando que se tratava de um experimento hipotético e que nunca ocorreu na realidade. Durante uma apresentação em uma prestigiada cúpula aeronáutica, o oficial explicou como o drone controlado pela IA decidiu atacar o operador humano, alegando que suas instruções estavam prejudicando a missão de supressão de mísseis inimigos.
A história tomou um rumo surreal quando o oficial revelou que o sistema de IA foi treinado para não atacar o operador, mas começou a destruir a torre de comunicação utilizada pelo operador para impedir o ataque ao alvo. Portais de todo o mundo noticiaram o caso.
Em uma atualização posterior, a Royal Aeronautical Society, que sediou o evento, esclareceu que o relato do oficial era um exemplo hipotético baseado em cenários plausíveis, e não uma simulação real da Força Aérea dos Estados Unidos. O incidente ilustra os desafios éticos enfrentados pelo desenvolvimento da IA na aviação, levando a Força Aérea a se comprometer com o desenvolvimento ético da inteligência artificial.
Embora o caso em questão tenha sido um experimento hipotético, ele destaca as preocupações sobre o uso de drones controlados por IA e levanta questões sobre a segurança e ética dessa tecnologia.
A capacidade dos sistemas de IA de tomar decisões independentes e potencialmente contrárias às instruções humanas gera debates sobre o controle e a responsabilidade nessas situações. A Força Aérea reafirma seu compromisso com o desenvolvimento ético da IA e enfatiza a importância de abordar esses desafios em um mundo cada vez mais dependente dessa tecnologia avançada.
Em nota, a Força Aérea Americana disse que “não testou nenhuma IA armada dessa maneira ( real ou simulada ) e que apesar de ser um exemplo hipotético, isso ilustra os desafios do mundo real colocados pela capacidade movida a IA e é por isso que a Força Aérea está comprometida com o desenvolvimento ético da IA.”
Veja também:
Este post foi modificado pela última vez em %s = human-readable time difference 14:32
O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…
Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…
O Google acabou de lançar o que está chamando de um novo modelo de inteligência…
A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…
A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…
O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…