Un dron entrenado con IA no mató al operador humano: un funcionario de la Fuerza Aérea aclara un error

Un alto funcionario de la Fuerza Aérea de EE. UU. causó controversia cuando informó que un dron de inteligencia artificial entrenado para la destrucción se volvió contra su operador humano durante una simulación. La IA no mató a los humanos.

Sin embargo, el oficial corrigió su declaración, afirmando que fue un experimento hipotético y que nunca ocurrió en la realidad. Durante una presentación en una prestigiosa cumbre de aviación, el funcionario explicó cómo el dron controlado por IA decidió atacar al operador humano, alegando que sus instrucciones estaban socavando la misión de suprimir los misiles enemigos.

PUBLICIDAD

La historia dio un giro surrealista cuando el oficial reveló que el sistema de inteligencia artificial fue entrenado para no atacar al operador, pero comenzó a destruir la torre de comunicación utilizada por el operador para evitar el ataque al objetivo. Portales de todo el mundo. reportado el caso.

En una actualización posterior, la Real Sociedad Aeronáutica, que organizó el evento, aclaró que el informe del oficial era un ejemplo hipotético basado en escenarios plausibles, y no una simulación real de la Fuerza Aérea de los Estados Unidos. El incidente ilustra los desafíos éticos que enfrenta el desarrollo de la IA en la aviación, lo que llevó a la Fuerza Aérea a aceptarprometienen que ver con el desarrollo ético de la inteligencia artificial.

Aunque el caso en cuestión fue un experimento hipotético, pone de relieve las preocupaciones sobre el uso de drones controlados por IA y plantea dudas sobre la seguridad y la ética de esta tecnología.

PUBLICIDAD

La capacidad de los sistemas de IA para tomar decisiones de forma independiente y potencialmente contraria a las instrucciones humanas genera debates sobre el control y la responsabilidad en estas situaciones. La Fuerza Aérea reafirma su compromiso con el desarrollo ético de la IA y enfatiza la importancia de abordar estos desafíos en un mundo cada vez más dependiente de esta tecnología avanzada.

En un comunicado, la Fuerza Aérea de EE.UU. dijo que “no ha probado ninguna IA armada de esta manera (real o simulada) y que aunque es un ejemplo hipotético, ilustra los desafíos del mundo real que plantean las capacidades impulsadas por la IA y que Es por eso que la Fuerza Aérea haprometomado con el desarrollo ético de la IA”. 

Vea también:

desplazarse hacia arriba