Pentagon straft KI-Entwickler für ethische Grenzen ab

Die US-Regierung erklärt den KI-Pionier Anthropic zum Risiko, weil er seine Technologie nicht für autonome Waffen freigibt. Dies markiert eine historische Zäsur im Verhältnis von Tech-Branche und Militär.

Die US-Regierung hat den KI-Pionier Anthropic zum Sicherheitsrisiko erklärt – weil das Unternehmen den Einsatz seiner Technologie in autonomen Waffensystemen verweigert. Dieser beispiellose Schritt markiert eine historische Zäsur im Spannungsfeld zwischen Silicon Valley und dem Militär. Während diese Woche in Genf über ein Verbot tödlicher autonomer Waffen verhandelt wird, schreitet deren Entwicklung im Ukraine-Krieg und durch US-Programme ungebremst voran.

Ethische KI wird zum Ausschlusskriterium

Am 5. März 2026 eskalierte der Konflikt: Das Pentagon stufte Anthropic offiziell als Lieferkettenrisiko ein. Grund ist die Weigerung des Unternehmens, seine KI-Modelle für heimische Massenüberwachung oder vollautonome Waffen freizugeben. Die US-Militärführung betrachtet diese ethischen „Sicherheitsvorkehrungen“ als unzumutbare Beschränkung im Wettlauf mit globalen Rivalen.

Anzeige

Während die globale Politik über ethische Leitplanken für künstliche Intelligenz streitet, gelten in der EU bereits konkrete gesetzliche Anforderungen für Unternehmen. Dieser kostenlose Leitfaden erklärt Ihnen die neue KI-Verordnung sowie alle wichtigen Kennzeichnungspflichten und Risikoklassen. EU-KI-Verordnung kompakt: Jetzt Gratis-Leitfaden sichern

„Bestehende interne Richtlinien reichen aus“, argumentieren Verteidigungsexperten. Schriftliche Vertragsverbote seien überflüssig. Anthropic kündigte an, die Einstufung vor Gericht anzufechten. Die aktuellen KI-Modelle seien nicht zuverlässig genug, um tödliche Gewalt ohne menschliche Aufsicht auszuüben, so das Unternehmen.

OpenAI springt ein – und verliert Führungspersonal

Während Anthropic von lukrativen Verteidigungsaufträgen ausgeschlossen wird, übernimmt OpenAI die Rolle des Ersatzlieferanten. Doch der Deal mit dem US-Verteidigungsministerium vom März 2026 kommt teuer: Die Leiterin für Robotik und Hardware kündigte am 7. März aus prinzipiellen Bedenken.

Die Vereinbarung sei geschlossen worden, bevor ausreichende Sicherheitsvorkehrungen für autonome Waffen etabliert waren, kritisierte die scheidende Managerin. Zwar betont die OpenAI-Führung, dass der Vertrag Massenüberwachung und autonomes Töten explizit verbiete. Ehemalige Regierungsbeamte bezweifeln jedoch, dass sich diese Klauseln in der riesigen Militärbürokratie durchsetzen lassen.

Parallel entwerfen US-Behörden neue Vergaberichtlinien. Geplant ist eine unwiderrufliche Nutzungslizenz für alle rechtmäßigen Zwecke – genau jene Klausel, die zum Streit mit Anthropic führte.

Autonome Drohnen erobern das Schlachtfeld

Während über Software-Restriktionen gestritten wird, schreitet die Hardware-Entwicklung mit Tempo voran. Am 5. März gab das Pentagon erste Aufträge im Rahmen seines „Drone Dominance“-Programms bekannt. Das milliardenschwere Vorhaben soll bis 2027 Hunderttausende unbemannte Waffensysteme in die Truppen bringen.

Auch in aktuellen Konflikten treibt die Autonomie voran. Am 7. März präsentierte das ukrainische Rüstungsunternehmen The Fourth Law die Zerov-8 – eine Abfangdrohne mit autonomem Zielmodul. Sie bekämpft anfliegende Bedrohungen wie Shahed-Munition ohne aktive menschliche Steuerung in der Endphase.

Militärexperten sehen darin einen Wendepunkt: Autonome Systeme entwickeln sich von unterstützenden Werkzeugen zu primären Kampfplattformen.

Anzeige

Die rasante Entwicklung autonomer Systeme und KI-basierter Technologien verschärft nicht nur militärische, sondern auch zivile Sicherheitsrisiken für die Wirtschaft. Erfahren Sie in diesem Experten-Report, wie Sie Ihr Unternehmen gegen moderne Cyber-Bedrohungen wappnen und neue gesetzliche Vorgaben effizient umsetzen. Kostenloses E-Book zu Cyber Security Trends herunterladen

Genfer Verhandlungen laufen der Entwicklung hinterher

Die rasante Integration von KI in Waffensysteme offenbart eine gefährliche Lücke im Völkerrecht. In der ersten Märzwoche 2026 beraten Diplomaten und Experten in Genf über dringend benötigte Regeln für tödliche autonome Waffensysteme.

Menschenrechtsorganisationen nutzen den Pentagon-Anthropic-Streit als Warnung: Die Gefahr sei groß, dass nationale Militärpolitik globale KI-Normen diktiere. Rechtsgelehrte mahnen, dass KI-gestützte Zielerfassung die notwendige menschliche Urteilsfähigkeit in dynamischen Kampfsituationen aushöhle.

Ein bindender internationaler Vertrag existiert bisher nicht. Militärs stützen sich auf nationale Interpretationen des humanitären Völkerrechts – ein fragiles Fundament für die Zukunft der Kriegsführung.

Die Zukunft der Militär-KI steht auf dem Spiel

Die Ereignisse der ersten Märzwoche 2026 markieren eine Zeiten wende. Branchenbeobachter prognostizieren: Der aggressive Kurs des Pentagons wird KI-Firmen zwingen, sich zwischen ethischen Grundsätzen und milliardenschweren Regierungsaufträgen zu entscheiden.

Die geplanten Vergaberegeln werden jene Entwickler begünstigen, die ihre Modelle direkt in kinetische Militäroperationen integrieren. Autonome Drohnenschwärme und KI-gestützte Strategieplanung werden vom Experiment zur Standarddoktrin.

Das Zeitfenster für wirksame internationale Abkommen schließt sich rapide. Die globale Sicherheitslandschaft des nächsten Jahrzehnts wird davon abhängen, ob Militärmächte und Tech-Giganten die taktischen Vorteile der KI mit den ethischen Risiken automatisierter Tötungsentscheidungen in Einklang bringen können.