OpenAI steuert KI-Stimmen für Pentagon-Drohnenschwärme

Das US-Verteidigungsministerium nutzt OpenAIs Sprach-KI, um einem Soldaten die Steuerung Hunderter Kampfdrohnen per Sprachbefehl zu ermöglichen.

Der KI-Riese OpenAI liefert die Sprachsteuerung für ein 100-Millionen-Euro-Programm des US-Verteidigungsministeriums. Ziel ist es, dass ein Soldat Hunderte Kampfdrohnen per Sprachbefehl lenken kann.

Das Pentagon will das Verhältnis von Mensch und Maschine auf dem Schlachtfeld umkehren. Statt eines Soldaten pro Drohne soll künftig ein einziger Operator Dutzende oder Hunderte unbemannte Systeme gleichzeitig befehligen. Den Schlüssel dazu liefert nun OpenAI. Das Unternehmen stellt seine Sprach-KI für ein hochkarätiges Wettbewerbsprogramm zur Entwicklung autonomer Drohnenschwärme bereit, wie aktuelle Berichte bestätigen.

Die „Orchestrator“-Herausforderung: Ein Operator, Hunderte Drohnen

Hinter der Initiative stehen die Defense Innovation Unit (DIU) und das Special Operations Command (SOCOM). Ihr Problem: die kognitive Überlastung menschlicher Operatoren. Die Lösung soll eine intuitive, natürliche Sprachsteuerung sein. In dem als „Orchestrator“ bekannten Wettbewerb entwickeln ausgewählte Rüstungskonzerne Prototypen. Diese sollen komplexe Missionen wie Such- und Rettungseinsätze oder Perimeterverteidigung ausführen – ohne dass ein Mensch jede Einheit manuell steuern muss.

OpenAI tritt nicht als direkter Bieter auf, sondern agiert als Technologiepartner für mindestens zwei der Finalisten. Das 100-Millionen-Euro-Programm ist als Sprint angelegt: Die Teams haben nur sechs Monate Zeit, um funktionsfähige Software vorzuführen. Diese Eile spiegelt den Wunsch des Pentagons wider, im Tempo der Tech-Branche zu agieren und nicht im trägen, jahrelangen Beschaffungszyklus.

Strikt begrenzte Rolle: Übersetzer, nicht Entscheider

OpenAI betont, dass seine Rolle klar umrissen ist. Die bereitgestellten Large Language Models (LLMs) dienen ausschließlich als Schnittstelle. Sie übersetzen gesprochene Befehle von Kommandanten in maschinenlesbare Anweisungen für den Drohnenschwarm. Ein Befehl wie „Scanne den nördlichen Sektor und identifiziere Fahrzeuge“ wird interpretiert, in Flugdaten umgewandelt und an das Kontrollsystem gesendet.

Doch wo hört die Verantwortung auf? Quellen legen strenge Grenzen fest: Die OpenAI-Modelle erhalten keine Zielerfassungsautorität, sind nicht direkt mit Waffensystemen verbunden und treffen keine autonomen Entscheidungen über Gewalteinsatz. Die Technologie beschränkt sich auf die Übersetzung und Orchestrierung von Bewegung und Logistik. Ein „Human in the Loop“ bleibt die letzte Instanz für alle kritischen Aktionen. OpenAI-CEO Sam Altman hat wiederholt betont, dass das Unternehmen keine Waffen bauen wird, aber die USA und ihre Verbündeten unterstützen will.

Ethische Grauzone und ein gewandelter Kurs

Die Partnerschaft entfacht die ethische Debatte um KI im Krieg neu. Jahrelang verbot OpenAI die Nutzung seiner Modelle explizit für „Militär und Kriegsführung“. Anfang 2024 lockerte das Unternehmen diese Politik. Das aktualisierte Verbot gilt nun für „Waffenentwicklung“, erlaubt aber Kooperationen im Bereich „nationale Sicherheit“. Dieser Schritt markiert eine strategische Neuausrichtung.

Anzeige

Die Regulierung von KI verändert sich rasant – wer KI-Systeme entwickelt oder einsetzt, sollte die neuen Pflichten kennen. Ein kostenloser Leitfaden erklärt die EU‑KI‑Verordnung (AI Act) kompakt: Risikoklassen, Kennzeichnungspflichten und notwendige Dokumentation für Entwickler und Anwender. Jetzt gratis Leitfaden zur KI-Verordnung herunterladen

Sie folgt auf eine rasche Abfolge von Ankündigungen, die die Beziehungen zwischen dem KI-Labor und der US-Regierung vertiefen. Erst am 9. Februar verkündete das Verteidigungsministerium eine separate Partnerschaft zur Integration von ChatGPT in GenAI.mil, die sichere Enterprise-KI-Plattform des Pentagons. Während es dort um administrative Aufgaben geht, markieren die Drohnenschwarm-Tests den Schritt hin zu operativen, taktischen Anwendungen.

Wettlauf um die Vorherrschaft im KI-Krieg

Für das Pentagon ist die Sache klar: Es befindet sich im Wettlauf. Gegnerische Nationen treiben ihre Programme für autonome Systeme vehement voran. Die „Replicator“-Initiative, die auf die schnelle Beschaffung Tausender billiger, autonomer Systeme abzielt, bildet den Rahmen für diese Tests. Die Integration kommerzieller KI-Innovationen soll den strategischen Vorteil sichern.

OpenAIs Dominanz in der Sprachverarbeitung gibt ihm hier einen einzigartigen Vorteil. Doch auch Wettbewerber wie Anthropic und etablierte Rüstungskonzerne buhlen um Aufträge. Die Entwicklung signalisiert einen breiteren Trend zur „zivil-militärischen Fusion“ im KI-Sektor.

Die Zukunft: Konversation statt Joystick

Gelingt die Technologie, könnte sie die Benutzeroberfläche des Krieges grundlegend verändern. Statt Joysticks und Bildschirmen würde die Zukunft der Drohnenkriegsführung wie ein Dialog aussehen. Die KI wäre die Brücke zwischen menschlicher Absicht und robotischem Handeln – nicht nur bei Drohnen, sondern potenziell auch in Cyber-Verteidigung, Logistik oder Marinesystemen.

Bis dahin sind jedoch erhebliche Hürden zu überwinden. Die größte Herausforderung: Die KI-Modelle müssen in abgeschirmten, „Edge“-Umgebungen mit begrenzter Konnektivität zuverlässig funktionieren – genau wie in echten Kampfzonen. Die Tests werden sich darauf konzentrieren, „Halluzinationen“ oder Fehlinterpretationen von Befehlen unter Hochstress auszuschließen.

OpenAI hat mit diesem Schritt die Forschungslabore verlassen und ist in der nationalen Sicherheitsarena angekommen. Die Ära der KI-gestützten Verteidigung ist keine Hypothese mehr. Sie wird jetzt aktiv entwickelt.