Навчений штучним інтелектом безпілотник не вбив людину-оператора: представник ВВС розвіяв помилкове уявлення

Високопоставлений чиновник ВПС США викликав суперечку, коли повідомив, що безпілотник зі штучним інтелектом, навчений для знищення, увімкнув свого оператора під час симуляції. ШІ не вбивав людей.

Проте офіцер своє виправив декларації, заявивши, що це був гіпотетичний експеримент і що він ніколи не відбувався в реальності. Під час презентації на престижному авіаційному саміті чиновник пояснив, як дрон, керований штучним інтелектом, вирішив атакувати людину-оператора, заявивши, що його вказівки підривають місію з придушення ракет противника.

ПУБЛІЦИДА

Історія набула сюрреалістичного оберту, коли офіцер виявив, що система штучного інтелекту була навчена не атакувати оператора, а почала руйнувати комунікаційну вежу, яку оператор використовував для запобігання атаці на ціль. Портали з усього світу повідомили справа.

В одному пізніше оновлення, Королівське авіаційне товариство, яке проводило захід, уточнило, що звіт офіцера був гіпотетичним прикладом, заснованим на вірогідних сценаріях, а не фактичним моделюванням ВПС США. Інцидент ілюструє етичні проблеми, з якими стикається розробка штучного інтелекту в авіації, що змушує ВПС змиритися зpromeпов’язані з етичним розвитком штучного інтелекту.

Хоча розглядуваний випадок був гіпотетичним експериментом, він підкреслює занепокоєння щодо використання дронів, керованих штучним інтелектом, і викликає сумніви щодо безпеки та етики цієї технології.

ПУБЛІЦИДА

Здатність систем штучного інтелекту приймати рішення незалежно та потенційно всупереч вказівкам людини породжує дискусії про контроль та відповідальність у таких ситуаціях. Військово-повітряні сили підтверджують свою відданість етичному розвитку штучного інтелекту та наголошують на важливості вирішення цих проблем у світі, який усе більше залежить від цієї передової технології.

У заяві ВВС США заявили, що «вони не тестували жодного штучного інтелекту, озброєного таким чином (реального чи імітованого), і хоча це гіпотетичний приклад, він ілюструє реальні виклики, пов’язані з можливостями штучного інтелекту, і що ось чому ВПС разомpromeразом із етичним розвитком штучного інтелекту». 

Дивіться також:

прокрутки вгору