Bildnachweis: Curto Nachrichten/BingAI

Die USA testen KI-Chatbots als Berater für die Schlachtplanung

Forscher der US-Armee führen Experimente durch, bei denen KI-Chatbots als Gefechtsfeldberater in Kriegsspielsimulationen fungieren – Experten warnen jedoch davor, diese Technologie in Hochrisikosituationen einzusetzen.

Diese Experimente zielen darauf ab, festzustellen, ob die künstliche, insbesondere die Technologie von OpenAI, kann Schlachtplanungsprozesse verbessern.

WERBUNG

Die Modelle GPT-4 Turbo und GPT-4 Vision von OpenAI, das sowohl Text- als auch Bildinformationen verarbeiten kann, zeigte in simulierten Szenarien eine überlegene Leistung im Vergleich zu älteren KI-Agenten.

In diesen Experimenten spielen KI-Chatbots die Rolle von Assistenten für Militärkommandeure und schlagen schnell verschiedene Aktionsoptionen vor, basierend auf Informationen über das Schlachtfeldgelände, befreundete und feindliche Streitkräfte sowie Missionsziele.

Trotz der nachgewiesenen Wirksamkeit bei der schnellen Erstellung von Plänen standen KI-Berater, die GPT-Modelle verwenden, vor Herausforderungen. Dazu gehört auch, dass sie mehr Verluste erleiden als ihre Kollegen.

WERBUNG

Im Januar 2024 wurde das Richtlinienupdate veröffentlicht von OpenAI Jetzt sind bestimmte militärische Anwendungen im Zusammenhang mit Cybersicherheitsprojekten zulässig, während die Beteiligung an der Waffenentwicklung oder die Schädigung von Personen oder Eigentum weiterhin verboten ist.

Es bestehen jedoch weiterhin ethische und rechtliche Bedenken hinsichtlich der Machbarkeit des Einsatzes von KI-Beratern in komplexen, realen Konflikten.

Die KI-Task Force des US-Verteidigungsministeriums hat zahlreiche Fälle potenzieller militärischer Einsatzmöglichkeiten generativer KI-Technologien identifiziert, was das wachsende Interesse an der Integration von KI in Verteidigungseinsätze unterstreicht. Das US-Militär hat kürzlich den Einsatz künstlicher Intelligenz zur Identifizierung von Zielen für Luftangriffe im Nahen Osten offengelegt.

WERBUNG

Unter Experten herrscht jedoch weiterhin Skepsis, da sie Bedenken wie Automatisierungsbias und die Eignung der Technologie für risikoreiche Anwendungen anführen.

Lesen Sie auch:

hochscrollen