KI-Entwickler fordern klare Grenzen für Militärverträge

Mitarbeiter von Google und OpenAI fordern in einem offenen Brief ethische Grenzen für Militärverträge und unterstützen das Startup Anthropic im Konflikt mit dem Pentagon.

Google- und OpenAI-Mitarbeiter solidarisieren sich mit KI-Startup Anthropic und fordern von ihren Führungsetagen, keine Verträge ohne ethische Leitplanken mit dem US-Militär zu unterzeichnen. Die gemeinsame Aktion markiert einen neuen Höhepunkt im Konflikt zwischen Tech-Branche und Verteidigungsbehörden.

Tech-Mitarbeiter fordern gemeinsame Front gegen Militär-KI

Mehr als 200 Google-Beschäftigte und über 60 OpenAI-Mitarbeiter haben einen offenen Brief unterzeichnet. Sie fordern darin strikte ethische Grenzen für Militärverträge. Die Unterzeichnenden warnen vor unkontrollierter Nutzung von künstlicher Intelligenz für Massenüberwachung oder autonome Waffensysteme.

Anzeige

Während die Debatte um ethische Leitplanken für Künstliche Intelligenz an Fahrt gewinnt, müssen Unternehmen bereits heute konkrete gesetzliche Anforderungen erfüllen. Dieser kostenlose Leitfaden erklärt verständlich, welche Pflichten die neue EU-KI-Verordnung für Entwickler und Anwender vorsieht. EU-KI-Verordnung kompakt: Jetzt Gratis-Leitfaden sichern

Die Organisatoren der Initiative „We Will Not Be Divided“ behaupten, das Verteidigungsministerium versuche gezielt, Tech-Konzerne gegeneinander auszuspielen. Durch das Schüren von Konkurrenzängsten wolle man Vertragsbedingungen durchsetzen, die andere Unternehmen bereits abgelehnt hätten. Die Mitarbeiter hoffen, durch branchenweite Solidarität diese Taktik zu unterlaufen.

Anthropic unter Druck: Startup wehrt sich gegen Pentagon

Auslöser der aktuellen Protestwelle ist ein eskalierender Konflikt zwischen dem Pentagon und dem KI-Startup Anthropic. Das Unternehmen, bekannt für sein KI-Modell Claude, lehnte kürzlich Forderungen der Behörden ab, wichtige Sicherheitsvorkehrungen zu entfernen.

Die Regierung soll die Aufhebung von Beschränkungen verlangt haben, die den Einsatz der KI für autonomes Töten und Massenüberwachung verhindern. Als Reaktion auf die Weigerung droht das Verteidigungsministerium nun mit drastischen Maßnahmen. Dazu gehören mögliche Zwangsmaßnahmen nach dem Defense Production Act und die Einstufung von Anthropic als Lieferkettenrisiko.

Das Startup steht vor einer Frist an diesem Freitag, die zum Verlust eines Vertrags im Wert von mehreren hundert Millionen Euro führen könnte. Die Google- und OpenAI-Mitarbeiter solidarisieren sich ausdrücklich mit Anthropics Haltung.

Historische Proteste und interne Spannungen

Die aktuellen Forderungen finden teilweise Unterstützung in Googles Führungsetage. Jeff Dean, Chefwissenschaftler für KI-Forschung bei Google, äußerte öffentlich Sympathie für Anthropics Position. Seine Aussagen decken sich mit den Kernforderungen der protestierenden Mitarbeiter.

Die Proteste setzen eine lange Tradition bei Google fort. Bereits 2018 erzwangen Tausende Beschäftigte den Ausstieg aus Project Maven, einem Pentagon-Projekt zur Auswertung von Drohnenaufnahmen. Auch gegen den Cloud-Vertrag Project Nimbus mit Israel gab es massive interne Proteste.

Anzeige

Die technologische Aufrüstung bringt nicht nur ethische, sondern auch enorme sicherheitstechnische Herausforderungen für die Wirtschaft mit sich. Erfahren Sie in diesem Experten-Report, wie Sie Ihr Unternehmen gegen moderne Cyber-Bedrohungen und neue gesetzliche Regulierungen absichern. Kostenloses E-Book: Cyber Security Trends 2024 herunterladen

Doch die Unternehmenspolitik hat sich gewandelt. Anfang 2025 strich Google explizite Verbote für Waffen- und Überwachungstechnologien aus seinen KI-Grundsätzen. Diese Änderung wurde als notwendige Anpassung im globalen Wettlauf um KI-Vorherrschaft gerechtfertigt – und legte den Grundstein für den aktuellen Konflikt.

Branchenweite Auswirkungen und Zukunft der Verteidigungsaufträge

Der koordinierte Widerstand zeigt tiefe Gräben in der Tech-Branche. Während einige Unternehmen an strengen ethischen Richtlinien festhalten, zeigen andere mehr Flexibilität. Berichte deuten darauf hin, dass Elon Musks xAI bereits militärische Vertragsbedingungen akzeptiert hat.

Experten sehen im aggressiven Vorgehen des Pentagons den Druck, kommerzielle KI-Fähigkeiten schnell in die nationale Sicherheitsinfrastruktur zu integrieren. Die Integration von Large Language Models in Militäroperationen erfordert Cloud-Infrastruktur und Algorithmen, die vorwiegend von privaten Unternehmen entwickelt werden.

Sollte die Regierung den Defense Production Act tatsächlich anwenden oder nicht kooperative Unternehmen auf Schwarze Listen setzen, könnte dies einen Präzedenzfall schaffen. Die Entscheidungen von Google und OpenAI werden die Vertragsbedingungen für künftige staatliche Tech-Aufträge maßgeblich beeinflussen.

Ausblick: KI-Ethik versus nationale Sicherheit

Die Reaktionen von Google und OpenAI auf die Mitarbeiterforderungen werden richtungsweisend für die gesamte Branche sein. Eine Zustimmung zu den unbeschränkten Regierungsbedingungen könnte zu erheblichen internen Spannungen und einem Talentabfluss führen.

Die Debatte wirft grundlegende Fragen zu internationalen Normen auf. Aktivisten betonen, dass klare Grenzen in den USA einen wichtigen globalen Präzedenzfall für KI-Sicherheit setzen könnten. Verteidigungsexperten warnen hingegen vor Wettbewerbsnachteilen in einem sich schnell verändernden geopolitischen Umfeld.

Eine geeinte Front der führenden KI-Entwickler könnte das Pentagon zum Nachdenken bewegen. Die Lösung der aktuellen Krise wird die Entwicklung militärischer KI-Anwendungen für Jahre prägen – und das fragile Verhältnis zwischen Tech-Branche und staatlichen Sicherheitsbehörden neu definieren.