Dron wyszkolony przez sztuczną inteligencję nie zabił ludzkiego operatora: urzędnik Sił Powietrznych wyjaśnia nieporozumienia

Starszy urzędnik Sił Powietrznych Stanów Zjednoczonych wywołał kontrowersje, gdy poinformował, że dron ze sztuczną inteligencją wyszkolony do niszczenia zwrócił się podczas symulacji przeciwko swojemu ludzkiemu operatorowi. AI nie zabijała ludzi.

Funkcjonariusz jednak poprawił swoje oświadczenie, stwierdzając, że był to eksperyment hipotetyczny i że nigdy nie miał on miejsca w rzeczywistości. Podczas prezentacji na prestiżowym szczycie lotniczym urzędnik wyjaśnił, w jaki sposób dron sterowany przez sztuczną inteligencję zdecydował się zaatakować człowieka, twierdząc, że jego instrukcje podważają misję tłumienia rakiet wroga.

PUBLICIDADA

Historia przybrała surrealistyczny obrót, gdy funkcjonariusz ujawnił, że system AI został przeszkolony tak, aby nie atakował operatora, ale zaczął niszczyć wieżę komunikacyjną używaną przez operatora, aby zapobiec atakowi na cel. Portale z całego świata zgłoszone walizka.

W jednym późniejsza aktualizacjaKrólewskie Towarzystwo Aeronautyczne, które było gospodarzem wydarzenia, wyjaśniło, że raport oficera stanowi hipotetyczny przykład oparty na prawdopodobnych scenariuszach, a nie rzeczywistą symulację Sił Powietrznych Stanów Zjednoczonych. Incydent ilustruje wyzwania etyczne stojące przed rozwojem sztucznej inteligencji w lotnictwie, z którymi muszą się zmierzyć Siły Powietrznepromemają związek z etycznym rozwojem sztucznej inteligencji.

Chociaż omawiany przypadek był hipotetycznym eksperymentem, uwydatnia obawy związane z wykorzystaniem dronów sterowanych przez sztuczną inteligencję i rodzi pytania o bezpieczeństwo i etykę tej technologii.

PUBLICIDADA

Zdolność systemów sztucznej inteligencji do samodzielnego podejmowania decyzji i potencjalnie sprzecznych z instrukcjami człowieka wywołuje debaty na temat kontroli i odpowiedzialności w takich sytuacjach. Siły Powietrzne potwierdzają swoje zaangażowanie w etyczny rozwój sztucznej inteligencji i podkreślają znaczenie stawienia czoła tym wyzwaniom w świecie coraz bardziej zależnym od tej zaawansowanej technologii.

W oświadczeniu Siły Powietrzne Stanów Zjednoczonych stwierdziły, że „nie testowały żadnej uzbrojonej w ten sposób sztucznej inteligencji (rzeczywistej lub symulowanej) i chociaż jest to przykład hipotetyczny, ilustruje rzeczywiste wyzwania, jakie stwarzają możliwości oparte na sztucznej inteligencji, oraz że dlatego Siły Powietrzne to zrobiłypromezwiązane z etycznym rozwojem sztucznej inteligencji”. 

Veja também:

przewiń do góry