しかし、警官は彼の言葉を訂正した 声明、それは仮説の実験であり、現実には起こらなかったと述べた。権威ある航空サミットでのプレゼンテーションの中で、この当局者は、AI制御の無人機がどのようにして人間の操縦者を攻撃することを決定したかを説明し、彼の指示が敵のミサイルを抑制するという任務を損なうものであると主張した。
宣伝
AIシステムはオペレーターを攻撃しないように訓練されているが、ターゲットへの攻撃を防ぐためにオペレーターが使用する通信塔の破壊を開始したことを警官が明らかにしたとき、物語は超現実的な方向に変化しました。世界中のポータル 報告 ケース。
1で 後の更新、イベントを主催した英国王立航空協会は、士官の報告はもっともらしいシナリオに基づいた仮説的な例であり、実際のアメリカ空軍のシミュレーションではないことを明らかにした。この事件は、航空分野における AI の開発が直面する倫理的課題を示しており、空軍はこの問題に同意することになった。promeそれは人工知能の倫理的発展に関係しています。
問題の事件は仮説上の実験ではあるが、AI制御のドローンの使用に対する懸念が浮き彫りとなり、この技術の安全性と倫理性について疑問が生じている。
宣伝
AI システムが独立して人間の指示に反する可能性のある意思決定を行う能力は、このような状況における制御と責任についての議論を引き起こします。空軍は、AI の倫理的開発への取り組みを再確認し、この先進技術への依存がますます高まる世界でこれらの課題に対処することの重要性を強調します。
米空軍は声明で、「このような方法で武装したAI(実際または模擬)をテストしたことはなく、これは仮説の例ではあるが、AIを活用した機能によってもたらされる現実世界の課題を示している」と述べた。だからこそ空軍はpromeAIの倫理的発展に伴って考えられるものです。」
以下も参照してください。