מזל"ט מאומן בינה מלאכותית לא הרג מפעיל אנושי: פקיד חיל האוויר מנקה תפיסה מוטעית

בכיר בחיל האוויר האמריקני עורר מחלוקת כשדיווח כי מזל"ט בינה מלאכותית שאומן להשמדה הסתובב על המפעיל האנושי שלו במהלך סימולציה. בינה מלאכותית לא הרגה בני אדם.

עם זאת, השוטר תיקן את שלו הַצהָרָה, תוך ציון כי מדובר בניסוי היפותטי וכי הוא מעולם לא התרחש במציאות. במהלך מצגת בפסגת תעופה יוקרתית, הסביר הפקיד כיצד המל"ט הנשלט בבינה מלאכותית החליט לתקוף את המפעיל האנושי, בטענה שהוראותיו מערערות את משימת הדיכוי של טילי האויב.

פִּרסוּם

הסיפור קיבל תפנית סוריאליסטית כאשר הקצין חשף שמערכת הבינה המלאכותית אומנה שלא לתקוף את המפעיל, אלא החלה להרוס את מגדל התקשורת ששימש את המפעיל כדי למנוע את התקיפה על המטרה. פורטלים מכל העולם דיווח המקרה.

באחד עדכון מאוחר יותר, האגודה המלכותית לאווירונאוטיקה, שאירחה את האירוע, הבהירה שדו"ח הקצין הוא דוגמה היפותטית המבוססת על תרחישים סבירים, ולא הדמיית חיל האוויר של ארצות הברית בפועל. התקרית ממחישה את האתגרים האתיים העומדים בפני פיתוח הבינה המלאכותית בתעופה, מה שמוביל את חיל האוויר להשלים עםpromeקשור להתפתחות האתית של בינה מלאכותית.

למרות שהמקרה המדובר היה ניסוי היפותטי, הוא מדגיש חששות לגבי השימוש ברחפנים מבוקרים בינה מלאכותית ומעלה שאלות לגבי הבטיחות והאתיקה של טכנולוגיה זו.

פִּרסוּם

היכולת של מערכות בינה מלאכותית לקבל החלטות באופן עצמאי ופוטנציאלי בניגוד להוראות אנושיות מייצרת ויכוחים על שליטה ואחריות במצבים אלו. חיל האוויר מאשר מחדש את מחויבותו לפיתוח אתי של בינה מלאכותית ומדגיש את החשיבות של התמודדות עם אתגרים אלו בעולם התלוי יותר ויותר בטכנולוגיה מתקדמת זו.

בהצהרה אמר חיל האוויר האמריקני כי "הוא לא בדק אף בינה מלאכותית חמושה בצורה זו (אמיתית או מדומה) וכי למרות שזו דוגמה היפותטית, היא ממחישה את האתגרים בעולם האמיתי שמציבות יכולות המונעות בינה מלאכותית וכי בגלל זה יש לחיל האווירpromeנלקח עם הפיתוח האתי של AI." 

ראה גם:

לגלול מעלה