با این حال، افسر او را اصلاح کرد اعلام، بیان می کند که این یک آزمایش فرضی بوده و هرگز در واقعیت رخ نداده است. این مقام مسئول طی ارائه ای در یک اجلاس معتبر هوانوردی توضیح داد که چگونه پهپاد کنترل شده با هوش مصنوعی تصمیم به حمله به اپراتور انسانی گرفت و مدعی شد که دستورالعمل های او ماموریت سرکوب موشک های دشمن را تضعیف می کند.
تبلیغات
ماجرا زمانی که افسر فاش کرد که سیستم هوش مصنوعی آموزش دیده بود تا به اپراتور حمله نکند، چرخشی سورئال پیدا کرد، اما شروع به تخریب دکل ارتباطی مورد استفاده اپراتور برای جلوگیری از حمله به هدف کرد. پورتال از سراسر جهان گزارش شده است مورد
در یک آپدیت بعدی، انجمن سلطنتی هوانوردی که میزبان این رویداد بود، تصریح کرد که گزارش افسر یک نمونه فرضی بر اساس سناریوهای قابل قبول است و نه یک شبیه سازی واقعی نیروی هوایی ایالات متحده. این حادثه چالشهای اخلاقی پیش روی توسعه هوش مصنوعی در هوانوردی را نشان میدهد و باعث میشود که نیروی هوایی با آن کنار بیاید.promeبا توسعه اخلاقی هوش مصنوعی مرتبط است.
اگرچه مورد مورد بحث یک آزمایش فرضی بود، اما نگرانیها در مورد استفاده از پهپادهای کنترلشده با هوش مصنوعی را برجسته میکند و سؤالاتی را در مورد ایمنی و اخلاقیات این فناوری ایجاد میکند.
تبلیغات
توانایی سیستمهای هوش مصنوعی برای تصمیمگیری مستقل و بالقوه برخلاف دستورالعملهای انسانی، بحثهایی را درباره کنترل و مسئولیت در این موقعیتها ایجاد میکند. نیروی هوایی بر تعهد خود به توسعه اخلاقی هوش مصنوعی تاکید می کند و بر اهمیت پرداختن به این چالش ها در دنیایی که به طور فزاینده ای به این فناوری پیشرفته وابسته است، تاکید می کند.
در بیانیهای، نیروی هوایی ایالات متحده گفت: «هیچ هوش مصنوعی مسلح به این روش (واقعی یا شبیهسازیشده) را آزمایش نکرده است و اگرچه این یک مثال فرضی است، اما چالشهای دنیای واقعی ناشی از قابلیتهای مبتنی بر هوش مصنوعی را نشان میدهد. به همین دلیل است که نیروی هوایی داردpromeبا توسعه اخلاقی هوش مصنوعی گرفته شده است.
همچنین ببینید: