OpenAI rudert nach Pentagon-Deal zurück

OpenAI passt den Vertrag mit dem US-Verteidigungsministerium an, nachdem Nutzerproteste und interne Spannungen öffentlich wurden. Der Konzern schließt Inlandsüberwachung aus.

Nach heftiger öffentlicher Kritik und internem Widerstand überarbeitet OpenAI seinen umstrittenen Vertrag mit dem US-Verteidigungsministerium. Der Vorstoß zeigt den Konflikt zwischen milliardenschweren Staatsaufträgen und ethischen Grundsätzen in der KI-Branche.

Die Ankündigung des Deals war „schlampig“, räumte Konzernchef Sam Altman selbst ein. Jetzt will das Unternehmen explizitere Sicherheitsvorkehrungen in den Vertrag aufnehmen. Die Reaktion folgte nur Tage nach Vertragsunterzeichnung – und füllt eine Lücke, die der Konkurrent Anthropic hinterließ. Dessen KI-Lab wurde von der US-Regierung auf eine schwarze Liste gesetzt, weil es ethische rote Linien für Militärprojekte nicht aufgeben wollte.

Anzeige

Seit August 2024 gelten auch in Europa neue Spielregeln für den Einsatz künstlicher Intelligenz, die Unternehmen vor große Herausforderungen stellen. Dieser kostenlose Leitfaden erklärt kompakt die wichtigsten Pflichten der EU-KI-Verordnung, damit Sie rechtssicher agieren können. EU-KI-Verordnung kompakt: Jetzt Gratis-Leitfaden sichern

Nutzer protestieren mit App-Deinstallationswelle

Der öffentliche Aufschrei war heftig und hatte unmittelbare Konsequenzen. Die populäre ChatGPT-App verzeichnete einen sprunghaften Anstieg an Deinstallationen und schlechten Bewertungen. Gleichzeitig katapultierte sich Anthropics KI Claude an die Spitze der US-App-Charts. Der Markt reagierte damit schneller und deutlicher als viele Analysten erwartet hatten.

Offenbar ist ein relevanter Teil der Nutzerschaft höchst sensibel, wenn es um die wahrgenommenen ethischen Grundsätze von KI-Unternehmen geht – besonders bei Kooperationen mit dem Militär. Die Kontroverse hat eine grundsätzliche Debatte über die Rolle fortsrittlicher KI in militärischen Anwendungen neu entfacht.

Vertrag wird nachgebessert – Überwachung ausgeschlossen

Unter dem Druck bestätigte die OpenAI-Führung am Montag Nachverhandlungen mit dem Pentagon. Der aktualisierte Vertrag soll nun ausdrücklich verbieten, die KI-Systeme für gezielte Inlandsüberwachung US-amerikanischer Bürger einzusetzen. Zusätzlich sicherte das Verteidigungsministerium zu, dass seine Dienste nicht ohne weitere, spezifische Vertragsänderungen durch Nachrichtendienste wie die NSA genutzt werden.

Diese schnelle Kurskorrektur folgte auf Altmans Eingeständnis, die ursprüngliche Kommunikation sei unzureichend und opportunistisch gewirkt haben. Der Deal war spät in der vergangenen Woche bekannt geworden – kurz nachdem die US-Regierung Bundesbehörden anwies, Technologie von Anthropic nicht mehr zu nutzen.

Interner Dissens wird öffentlich sichtbar

Die Kontroverse spült interne Spannungen an die Oberfläche. Aktuelle und ehemalige Mitarbeiter äußerten sich in sozialen Medien und offenbarten ein gespaltenes Bild innerhalb des einflussreichen KI-Labors.

Einige Mitarbeiter verteidigen die Vereinbarung. Sie argumentieren, der unterzeichnete Vertrag enthalte robustere Sicherheitsvorkehrungen als bisherige Abkommen. Ein technischer Mitarbeiter widersprach der Darstellung, OpenAI habe bei der Sicherheit Kompromisse gemacht. Seiner Ansicht nach biete der Vertrag mehr Garantien gegen Missbrauch als der von Anthropic.

Andere Beschäftigte zeigen sich deutlich skeptischer. Eine Forschungswissenschaftlerin beschrieb die interne Diskussion als „überwältigend“ und zweifelte persönlich, ob sich der Deal lohne. Die Situation geht inzwischen über ein einzelnes Unternehmen hinaus: Ein offener Brief kursiert Berichten zufolge unter Mitarbeitern von OpenAI, Google und anderen Tech-Giganten. Er fordert dieselben harten Verbote gegen Massenüberwachung und autonome Waffen, für die Anthropic eintrat.

Anzeige

Neue technologische Entwicklungen und gesetzliche Regulierungen wie die KI-Verordnung verändern die Anforderungen an die IT-Sicherheit in Unternehmen grundlegend. Was Geschäftsführer jetzt über Cyber Security wissen müssen, um ihr Unternehmen proaktiv zu schützen, erfahren Sie in diesem Experten-Report. Cyber Security Trends 2024 kostenlos herunterladen

Zwei KI-Riesen, zwei Wege: Anthropics Haltung befeuert Wettbewerbsverschiebung

Der Kontext für OpenAIs Deal ist der Wettbewerb mit Anthropic, das eine klare ethische Haltung bezog. Die US-Regierung stufte Anthropic als „Risiko für die Lieferkette“ ein, nachdem das Unternehmen sich weigerte, Nutzungsbedingungen zu akzeptieren, die „alle rechtmäßigen Zwecke“ für seine KI erlaubt hätten – inklusive Anwendungen, die es selbst als unsicher einstuft.

Diese ethische Divergenz hat unmittelbare Marktfolgen. In den Tagen nach den konkurrierenden Ankündigungen schienen Verbraucher mit ihren Smartphones abzustimmen. Während Claude zur Nummer eins unter den kostenlosen Apps im US-Apple-Store aufstieg, erlebte ChatGPT einen deutlichen Nutzerrückgang. Eine klare Marktreaktion auf die unterschiedlichen ethischen Positionen.

KI-Branche am Scheideweg: Zwischen Staatsaufträgen und Mission

Die Ereignisse der vergangenen Woche markieren einen kritischen Punkt für die Beziehung der KI-Branche zu Regierungs- und Militäreinrichtungen. Die Situation erinnert an frühere Tech-Kontroversen, wie den Mitarbeiteraufstand bei Google 2018 gegen das Drohnen-Projekt „Maven“, das das Unternehmen schließlich verließ.

Die aktuelle Debatte zeigt jedoch eine komplexere und gespaltenere Landschaft. Einige Mitarbeiter führender KI-Labore verteidigen Militärarbeit öffentlich, während andere dagegen mobilmachen. Branchenanalysten sehen die KI-Unternehmen auf einem schmalen Grat: Sie müssen lukrative, strategisch wichtige Staatsaufträge sichern und gleichzeitig ihre erklärten Missionen – die Entwicklung sicherer und nützlicher KI – aufrechterhalten.

Die heftige öffentliche und interne Reaktion auf OpenAIs Deal unterstreicht das erhebliche Reputationsrisiko. Die schnelle Vertragsnachbesserung zeigt die Erkenntnis, dass Mitarbeitermoral und öffentliches Vertrauen für langfristigen Erfolg und den Erhalt von Talenten entscheidend sind.

Trotz Turbulenzen: Expansion von Pentagon zu NATO

Trotz der Turbulenzen vertieft OpenAI offenbar sein Engagement im Verteidigungssektor. Berichten vom 3. März zufolge erwägt das Unternehmen einen weiteren Vertrag, um seine KI-Technologie in den „nicht klassifizierten“ Netzwerken der NATO einzusetzen. Diese mögliche Expansion signalisiert ein strategisches Bekenntnis zur Zusammenarbeit mit westlichen Militärbündnissen. OpenAI positioniert seine technologie zunehmend als Schlüsselasset für nationale und internationale Sicherheit.

Die kommenden Wochen werden zeigen, ob OpenAIs Vertragsrevisionen und öffentliche Erklärungen die Beziehungen zu besorgten Mitarbeitern und einer skeptischen Öffentlichkeit erfolgreich reparieren können. Das Ergebnis wird wahrscheinlich beeinflussen, wie andere KI-Labore künftig mit ähnlichen Regierungspartnerschaften umgehen. Es könnte einen Präzedenzfall für die ethischen Grenzen und die Transparenz setzen, die erwartet werden, wenn die weltweit leistungsfähigste Technologie im hochbrisanten Feld der Landesverteidigung zum Einsatz kommt.