Однако офицер поправил свое декларация, заявив, что это был гипотетический эксперимент и что он никогда не происходил в реальности. Во время презентации на престижном авиационном саммите чиновник объяснил, как управляемый ИИ дрон решил атаковать человека-оператора, заявив, что его инструкции подрывают задачу по подавлению ракет противника.
ПУБЛИЧНОСТЬ
История приняла сюрреалистический оборот, когда офицер сообщил, что система ИИ была обучена не атаковать оператора, а начала разрушать вышку связи, которую оператор использовал для предотвращения атаки на цель. Порталы со всего мира сообщил случай.
В одном позднее обновлениеКоролевское авиационное общество, проводившее мероприятие, уточнило, что отчет офицера был гипотетическим примером, основанным на правдоподобных сценариях, а не реальной симуляцией ВВС США. Этот инцидент иллюстрирует этические проблемы, стоящие перед развитием искусственного интеллекта в авиации, заставляя ВВС прийти к соглашению.promeимеют отношение к этическому развитию искусственного интеллекта.
Хотя рассматриваемый случай был гипотетическим экспериментом, он подчеркивает обеспокоенность по поводу использования дронов, управляемых ИИ, и поднимает вопросы о безопасности и этичности этой технологии.
ПУБЛИЧНОСТЬ
Способность систем ИИ принимать решения независимо и потенциально вопреки инструкциям человека порождает споры о контроле и ответственности в таких ситуациях. ВВС подтверждают свою приверженность этическому развитию ИИ и подчеркивают важность решения этих проблем в мире, который все больше зависит от этой передовой технологии.
В своем заявлении ВВС США заявили, что «они не тестировали какой-либо ИИ, вооруженный таким образом (реальный или смоделированный), и что, хотя это гипотетический пример, он иллюстрирует реальные проблемы, связанные с возможностями ИИ, и что вот почему ВВС имеютpromeприняты с этическим развитием ИИ».
См. также: