Drone treinado por IA não matou operador humano: oficial da Força Aérea esclarece equívoco

Um alto funcionário da Força Aérea dos EUA causou polêmica ao relatar que um drone com inteligência artificial treinado para destruição virou-se contra seu operador humano durante uma simulação. IA não matou humano.

Publicado por
Uesley Durães

No entanto, o oficial corrigiu sua declaração, afirmando que se tratava de um experimento hipotético e que nunca ocorreu na realidade. Durante uma apresentação em uma prestigiada cúpula aeronáutica, o oficial explicou como o drone controlado pela IA decidiu atacar o operador humano, alegando que suas instruções estavam prejudicando a missão de supressão de mísseis inimigos.

A história tomou um rumo surreal quando o oficial revelou que o sistema de IA foi treinado para não atacar o operador, mas começou a destruir a torre de comunicação utilizada pelo operador para impedir o ataque ao alvo. Portais de todo o mundo noticiaram o caso.

Em uma atualização posterior, a Royal Aeronautical Society, que sediou o evento, esclareceu que o relato do oficial era um exemplo hipotético baseado em cenários plausíveis, e não uma simulação real da Força Aérea dos Estados Unidos. O incidente ilustra os desafios éticos enfrentados pelo desenvolvimento da IA na aviação, levando a Força Aérea a se comprometer com o desenvolvimento ético da inteligência artificial.

Embora o caso em questão tenha sido um experimento hipotético, ele destaca as preocupações sobre o uso de drones controlados por IA e levanta questões sobre a segurança e ética dessa tecnologia.

A capacidade dos sistemas de IA de tomar decisões independentes e potencialmente contrárias às instruções humanas gera debates sobre o controle e a responsabilidade nessas situações. A Força Aérea reafirma seu compromisso com o desenvolvimento ético da IA e enfatiza a importância de abordar esses desafios em um mundo cada vez mais dependente dessa tecnologia avançada.

Em nota, a Força Aérea Americana disse que “não testou nenhuma IA armada dessa maneira ( real ou simulada ) e que apesar de ser um exemplo hipotético, isso ilustra os desafios do mundo real colocados pela capacidade movida a IA e é por isso que a Força Aérea está comprometida com o desenvolvimento ético da IA.” 

Veja também:

Este post foi modificado pela última vez em %s = human-readable time difference 14:32

Uesley Durães

Posts recentes

Google se associa à Apptronik para desenvolver robôs humanoides

O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…

20 de dezembro de 2024

Genesis: Um novo patamar para simulações físicas em IA

Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…

20 de dezembro de 2024

Google lança seu próprio modelo de IA de “raciocínio”

O Google acabou de lançar o que está chamando de um novo modelo de inteligência…

19 de dezembro de 2024

GitHub Copilot agora é gratuito

A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…

19 de dezembro de 2024

ChatGPT ganha um novo número de telefone; veja

A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…

19 de dezembro de 2024

Google lança novo benchmark para testar a factualidade de LLMs

O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…

18 de dezembro de 2024