Проте офіцер своє виправив декларації, заявивши, що це був гіпотетичний експеримент і що він ніколи не відбувався в реальності. Під час презентації на престижному авіаційному саміті чиновник пояснив, як дрон, керований штучним інтелектом, вирішив атакувати людину-оператора, заявивши, що його вказівки підривають місію з придушення ракет противника.
ПУБЛІЦИДА
Історія набула сюрреалістичного оберту, коли офіцер виявив, що система штучного інтелекту була навчена не атакувати оператора, а почала руйнувати комунікаційну вежу, яку оператор використовував для запобігання атаці на ціль. Портали з усього світу повідомили справа.
В одному пізніше оновлення, Королівське авіаційне товариство, яке проводило захід, уточнило, що звіт офіцера був гіпотетичним прикладом, заснованим на вірогідних сценаріях, а не фактичним моделюванням ВПС США. Інцидент ілюструє етичні проблеми, з якими стикається розробка штучного інтелекту в авіації, що змушує ВПС змиритися зpromeпов’язані з етичним розвитком штучного інтелекту.
Хоча розглядуваний випадок був гіпотетичним експериментом, він підкреслює занепокоєння щодо використання дронів, керованих штучним інтелектом, і викликає сумніви щодо безпеки та етики цієї технології.
ПУБЛІЦИДА
Здатність систем штучного інтелекту приймати рішення незалежно та потенційно всупереч вказівкам людини породжує дискусії про контроль та відповідальність у таких ситуаціях. Військово-повітряні сили підтверджують свою відданість етичному розвитку штучного інтелекту та наголошують на важливості вирішення цих проблем у світі, який усе більше залежить від цієї передової технології.
У заяві ВВС США заявили, що «вони не тестували жодного штучного інтелекту, озброєного таким чином (реального чи імітованого), і хоча це гіпотетичний приклад, він ілюструє реальні виклики, пов’язані з можливостями штучного інтелекту, і що ось чому ВПС разомpromeразом із етичним розвитком штучного інтелекту».
Дивіться також: