AI 훈련 드론은 인간 운영자를 죽이지 않았다: 공군 관계자는 오해를 풀었다

미 공군 고위 관계자는 파괴 훈련을 받은 인공지능 드론이 시뮬레이션 도중 인간 조작자를 작동시켰다고 보고해 논란을 일으켰다. AI는 인간을 죽이지 않았다.

그런데 담당직원이 정정해줬어요 선언, 이는 가상의 실험이며 현실에서는 발생하지 않았다고 밝혔습니다. 권위 있는 항공 정상회담에서 발표하는 동안, 그 관계자는 AI가 조종하는 드론이 어떻게 인간 운용자를 공격하기로 결정했는지 설명하면서 그의 지시가 적의 미사일을 제압하는 임무를 훼손한다고 주장했습니다.

널리 알려짐

AI 시스템이 오퍼레이터를 공격하지 않도록 훈련됐지만, 타겟에 대한 공격을 막기 위해 오퍼레이터가 사용하는 통신탑을 파괴하기 시작했다는 사실을 경찰관이 폭로하면서 이야기는 초현실적으로 바뀌었다. 전 세계의 포털 보고됨 경우.

안에 나중에 업데이트행사를 주최한 왕립항공협회는 해당 장교의 보고서가 실제 미 공군 시뮬레이션이 아니라 그럴듯한 시나리오에 기초한 가상의 사례였다고 밝혔습니다. 이 사건은 항공 분야 AI 개발이 직면한 윤리적 문제를 보여주며, 공군이 이를 받아들이게 되었습니다.prome인공지능의 윤리적 발전과 관련이 있다.

문제의 사례는 가상의 실험이었지만 AI가 조종하는 드론의 활용에 대한 우려를 부각시키고 이 기술의 안전성과 윤리성에 대한 의문을 제기한다.

널리 알려짐

독립적이고 잠재적으로 인간의 지시에 반하는 결정을 내리는 AI 시스템의 능력은 이러한 상황에서 통제와 책임에 대한 논쟁을 불러일으킵니다. 공군은 AI의 윤리적 발전에 대한 약속을 재확인하고 이 첨단 기술에 점점 더 의존하는 세계에서 이러한 문제를 해결하는 것이 중요함을 강조합니다.

미 공군은 성명을 통해 “이러한 방식(실제 또는 시뮬레이션)으로 무장한 AI를 테스트한 적이 없으며 비록 가상의 예이지만 AI 기반 기능으로 인해 발생하는 실제 문제를 보여주고 있다”고 밝혔습니다. 그렇기 때문에 공군은promeAI의 윤리적 발전과 함께.” 

참조 :

스크롤