OpenAI zieht Notbremse bei Pentagon-Deal

OpenAI schränkt nach Kritik die Nutzung seiner KI für Überwachung und Geheimdienste ein. Der Schritt folgt auf massive öffentliche Bedenken gegen den ursprünglichen Vertrag mit dem US-Verteidigungsministerium.

Die Ankündigung des Deals am vergangenen Freitag hatte eine heftige Debatte über die Rolle von KI in Militär und Überwachung auslösten. Nur Stunden zuvor hatte die US-Regierung die Zusammenarbeit mit dem KI-Labor Anthropic aus ethischen Gründen beendet. OpenAI-Chef Sam Altman räumte nun Fehler ein: Man habe die Kommunikation zu diesem komplexen Thema „nicht überstürzen dürfen“.

Anzeige

Während Tech-Giganten über ethische Leitplanken verhandeln, schafft die EU mit dem AI Act bereits klare Fakten für alle Unternehmen. Dieser kostenlose Leitfaden erklärt kompakt, welche neuen Kennzeichnungs- und Dokumentationspflichten Sie jetzt erfüllen müssen. EU-KI-Verordnung: Kostenloses E-Book sichern

Klare rote Linien gegen Überwachung

Der geänderte Vertragstext enthält nun explizite Verbote. Die KI-Systeme von OpenAI dürfen nicht für die Inlandsüberwachung von US-Personen eingesetzt werden. Dies schließt auch das gezielte Tracking über kommerziell erworbene persönliche Daten ein – eine zentrale Forderung von Datenschützern.

Zugang für US-Geheimdienste wie die National Security Agency (NSA) ist unter diesem Vertrag ausgeschlossen. Für eine künftige Zusammenarbeit wäre eine separate, neu verhandelte Vereinbarung nötig. Das Verteidigungsministerium habe diese Grundsätze bestätigt, so OpenAI.

Diese Klauseln ergänzen bestehende Sicherheitsvorkehrungen. Dazu zählen Verbote für den Einsatz in vollautonomen Waffensystemen und für hochriskante automatische Entscheidungen ohne menschliche Freigabe. Das Unternehmen betont, die Kontrolle über seine Sicherheitssysteme zu behalten.

Der Schatten des Anthropic-Konflikts

Die Neuverhandlung steht im Schatten eines anderen Konflikts. Die US-Regierung hatte kurz zuvor den Vertrag mit dem KI-Rivalen Anthropic gekündigt und das Unternehmen zum „Risiko für die Lieferkette“ erklärt. Der Grund: Anthropic weigerte sich, vertragliche Beschränkungen gegen Massenüberwachung und autonome Waffen zu streichen.

OpenAI füllte diese Lücke – und erntete dafür den Vorwurf der Opportunität. Jetzt deeskaliert das Unternehmen: Man halte die Risiko-Einstufung von Anthropic für falsch und hoffe, dass dem Konkurrenten dieselben revidierten Vertragsbedingungen angeboten werden.

Anzeige

Die rasanten Entwicklungen bei der Künstlichen Intelligenz bringen auch neue Sicherheitsrisiken und gesetzliche Anforderungen für die hiesige Wirtschaft mit sich. Erfahren Sie in diesem Experten-Report, wie Sie Ihre IT-Infrastruktur 2024 effektiv vor Cyberangriffen und Compliance-Lücken schützen. Cyber Security Strategien 2024 kostenlos herunterladen

Die Situation zeigt den grundlegenden Konflikt: Die Regierung sucht maximale Flexibilität für „jede legale Nutzung“, während KI-Unternehmen zwischen kommerziellen Chancen und öffentlicher Verantwortung lavieren müssen.

Digitale Transformation mit ethischen Fallstricken

Für das Pentagon ist die Partnerschaft ein strategischer Schritt. Die US-Streitkräfte treiben die Integration von Spitzen-KI in ihre Operationen voran, um technologisch wettbewerbsfähig zu bleiben. Bereits vor diesem geheimen Abkommen nutzte eine Version von ChatGPT auf der unklassifizierten Plattform „GenAI.mil“ über eine Million Nutzer.

Die ethischen Debatten bleiben jedoch zentral. Die von Anthropic erstrittenen und von OpenAI nun bekräftigten Schutzmaßnahmen unterstreichen: Menschliche Aufsicht und Kontrolle sind unverzichtbar, je tiefer diese mächtigen Systeme in die Verteidigungsinfrastruktur eindringen.

Ein neuer Fahrplan für die Zusammenarbeit?

Die Änderungen könnten einen neuen Standard für KI-Kooperationen mit dem Staat setzen. Das Verteidigungsministerium plant eine Arbeitsgruppe mit Vertretern führender KI-Labore, Cloud-Anbieter und eigener Experten.

OpenAI wird teilnehmen. Dieses Gremium soll ein Forum für die drängenden Fragen an der Schnittstelle von Privatsphäre, Ethik und nationaler Sicherheit bieten. Sein Erfolg wird maßgeblich darüber entscheiden, ob die Verantwortung bei der KI-Entwicklung künftig mit dem technologischen Fortschritt Schritt halten kann.