KI-geschulte Drohne hat menschlichen Bediener nicht getötet: Beamter der Luftwaffe räumt mit Missverständnis auf

Ein hochrangiger Beamter der US-Luftwaffe sorgte für Kontroversen, als er berichtete, dass eine auf Zerstörung ausgerichtete Drohne mit künstlicher Intelligenz während einer Simulation ihren menschlichen Bediener angegriffen habe. KI hat keine Menschen getötet.

Der Beamte korrigierte jedoch seine Aussage Erklärung, mit der Begründung, dass es sich um ein hypothetisches Experiment handele und dass es in der Realität nie stattgefunden habe. Während einer Präsentation auf einem prestigeträchtigen Luftfahrtgipfel erklärte der Beamte, wie die KI-gesteuerte Drohne beschloss, den menschlichen Bediener anzugreifen, und behauptete, dass seine Anweisungen die Mission der Unterdrückung feindlicher Raketen untergraben würden.

WERBUNG

Die Geschichte nahm eine surreale Wendung, als der Beamte enthüllte, dass das KI-System darauf trainiert war, den Bediener nicht anzugreifen, sondern damit begann, den Kommunikationsturm zu zerstören, den der Bediener verwendet hatte, um den Angriff auf das Ziel zu verhindern. Portale aus aller Welt gemeldet der Fall.

In einer späteres UpdateDie Royal Aeronautical Society, die die Veranstaltung ausrichtete, stellte klar, dass es sich bei dem Bericht des Offiziers um ein hypothetisches Beispiel auf der Grundlage plausibler Szenarien und nicht um eine tatsächliche Simulation der US-Luftwaffe handele. Der Vorfall verdeutlicht die ethischen Herausforderungen, mit denen die Entwicklung von KI in der Luftfahrt konfrontiert ist, und führt dazu, dass sich die Luftwaffe damit auseinandersetzen musspromehaben mit der ethischen Entwicklung künstlicher Intelligenz zu tun.

Obwohl es sich bei dem betreffenden Fall um ein hypothetisches Experiment handelte, unterstreicht er Bedenken hinsichtlich des Einsatzes KI-gesteuerter Drohnen und wirft Fragen zur Sicherheit und Ethik dieser Technologie auf.

WERBUNG

Die Fähigkeit von KI-Systemen, Entscheidungen unabhängig und möglicherweise im Widerspruch zu menschlichen Anweisungen zu treffen, löst in diesen Situationen Debatten über Kontrolle und Verantwortung aus. Die Luftwaffe bekräftigt ihr Engagement für die ethische Entwicklung der KI und betont, wie wichtig es ist, diese Herausforderungen in einer Welt anzugehen, die zunehmend von dieser fortschrittlichen Technologie abhängig ist.

In einer Erklärung sagte die US-Luftwaffe, dass „sie keine auf diese Weise bewaffnete KI (real oder simuliert) getestet hat und dass es sich zwar um ein hypothetisches Beispiel handelt, es aber die realen Herausforderungen veranschaulicht, die KI-gestützte Fähigkeiten mit sich bringen.“ Deshalb hat die Luftwaffepromeangetan von der ethischen Entwicklung der KI.“ 

Siehe auch:

hochscrollen