KI-Duell: Anthropic holt bei Unternehmen auf, OpenAI unter Druck

Anthropic gewinnt Marktanteile gegenüber OpenAI, während neue Modelle mit gefährlichen Fähigkeiten und verschärfte EU-Regulierung den gesamten KI-Sektor unter Druck setzen.

Der Vorsprung von OpenAI im Rennen um die führende KI schmilzt dahin. Konkurrent Anthropic gewinnt rasant an Boden, besonders bei Geschäftskunden. Gleichzeitig ziehen gefährliche Fähigkeiten neuer Modelle und regulatorische Schritte den gesamten Sektor in den Fokus.

Anzeige

Die neuen regulatorischen Anforderungen durch den EU AI Act betreffen Unternehmen bereits heute und fordern eine präzise Umsetzung von Risikoklassen und Dokumentationspflichten. Dieser kostenlose Leitfaden bietet einen kompakten Überblick über alle Fristen und Pflichten, die Ihre Rechts- und IT-Abteilung jetzt kennen muss. EU AI Act in 5 Schritten verstehen

Der Kampf um die Unternehmen

Die Daten sind eindeutig: Der Abstand zwischen den beiden KI-Giganten schrumpft. Fast ein Drittel der US-Unternehmen setzt inzwischen auf die Tools von Anthropic – ein Plus von sechs Prozentpunkten binnen eines Monats. Die Nutzungsrate von OpenAI im Unternehmenssegment stagniert dagegen bei 35 Prozent. Auch beim Verbraucherinteresse legt Anthropic deutlich zu: Die Downloads der Claude-App verdreifachten sich demnach auf 21 Millionen.

Der wirtschaftliche Nutzen der KI konzentriert sich dabei auf wenige Player. Eine Studie von PricewaterhouseCoopers vom heutigen Montag zeigt: Rund 74 Prozent des durch KI generierten Werts entfallen auf nur 20 Prozent der Unternehmen. Diese Vorreiter nutzen KI für Wachstum und automatisierte Entscheidungen fast dreimal so intensiv wie der Rest. Der Wettbewerb zwischen OpenAI und Anthropic dreht sich somit immer weniger um reine Nutzerzahlen, sondern darum, welches Ökosystem den größten geschäftlichen Mehrwert liefert.

Gefährliche Fähigkeiten und regulatorischer Alarm

Die Dynamik erhielt Mitte April eine neue, besorgniserregende Dimension. Mit der Vorstellung des „Claude Mythos Preview“ demonstrierte Anthropic ein Modell mit beispiellosen Fähigkeiten. Es identifizierte selbst kritische Software-Schwachstellen, darunter eine 27 Jahre alte Sicherheitslücke in OpenBSD. Wegen dieser „gefährlichen“ Hacking-Kapazitäten wurde der öffentliche Zugang sofort gesperrt.

Stattdessen startete Anthropic heute „Project Glasswing“. In dieser kontrollierten Testumgebung kooperieren über 40 Organisationen – darunter Tech-Giganten wie Amazon, Apple, Google und Microsoft sowie Finanzinstitute wie JPMorgan Chase. Anthropic stellt 100 Millionen US-Dollar an Nutzungsguthaben bereit, um kritische Infrastruktur abzusichern, bevor solche autonomen Hacking-Fähigkeiten allgemein verfügbar werden.

Die potenziellen Risiken lösten Notfallgespräche auf höchster Regierungsebene aus. Bereits am 10. April trafen sich der Fed-Chef Jerome Powell und Finanzminister Scott Bessent mit den CEOs großer Banken, darunter Goldman Sachs und Bank of America. Der Fokus: die Cybersicherheitsrisiken des neuen Modells für den Finanzsektor. Berichten zufolge ermutigen die Behörden die Banken sogar, das Mythos-Modell selbst zu testen, um sich besser gegen KI-gesteuerte Angriffe zu wappnen.

Anzeige

Während KI-Modelle immer mächtiger werden, wachsen auch die Risiken für die IT-Infrastruktur durch automatisierte Angriffe und neue Sicherheitslücken. Erfahren Sie in diesem kostenlosen E-Book, wie Sie Ihr Unternehmen proaktiv absichern und die aktuellen gesetzlichen Anforderungen an die Cyber-Security erfüllen. Gratis Cyber-Security Report herunterladen

Auch international reagieren die Aufseher mit Dringlichkeit. Die britische Finanzaufsicht FCA, die Bank of England und das National Cyber Security Centre führen eine beschleunigte Risikoprüfung durch. Eine offizielle Einweisung der heimischen Banken wird innerhalb der nächsten zwei Wochen erwartet.

OpenAIs sozialer Kurs und EU-Regulierung

Während sich Anthropic auf hochsichere Unternehmenslösungen konzentriert, adressiert OpenAI die gesellschaftlichen Folgen der Automatisierung. In einem Strategiepapier schlug das Unternehmen radikale Maßnahmen vor, darunter eine „Robotersteuer“ auf automatisierte Arbeit und die Einführung einer 32-Stunden-Vier-Tage-Woche.

Die Vorschläge kommen in einer angespannten Lage. Im ersten Quartal 2026 gingen im Technologiesektor rund 78.600 Jobs verloren, fast die Hälfte davon direkt durch KI-Integration. Eine Studie vom 12. April zeigt zudem, dass 20 Prozent der Vollzeitbeschäftigten in den USA bereits signifikante Teile ihrer Aufgaben durch KI ersetzt sehen.

Gleichzeitig wächst der regulatorische Druck auf OpenAI in Europa. Die EU-Kommission stufte am 12. April die Suchfunktion von ChatGPT als „sehr große Suchmaschine“ nach dem Digital Services Act (DSA) ein. Die Einstufung – sie gilt für Plattformen mit über 45 Millionen monatlichen Nutzern in der EU – unterwirft das Unternehmen den strengsten Auflagen, darunter obligatorische Risikobewertungen und Transparenzanforderungen.

Infrastruktur-Boom und gesellschaftlicher Widerstand

Der KI-Ausbau treibt einen gewaltigen Bauboom von Rechenzentren voran, der zunehmend auf Widerstand stößt. In den USA sind über 4.000 Anlagen in Betrieb, der Neubau löst lokale Proteste aus, wie aktuell in Archbald, Pennsylvania. Die Sorge gilt Umwelt und Ressourcenverbrauch.

Aus dem lokalen Unmut wird politisches Handeln. Bereits Anfang 2026 wurden in 30 Bundesstaaten über 300 Gesetzesvorlagen zur Regulierung von Rechenzentren eingebracht. Am 12. April machte ein bundesweiter Vorstoß Schlagzeilen: Senator Bernie Sanders und Abgeordnete Alexandria Ocasio-Cortez brachten den „AI Data Center Moratorium Act“ ein. Der parteiübergreifende Entwurf will den rasanten Ausbau bremsen, bis strengere Umwelt- und Energiestandards festgelegt sind.

Die Unsicherheit erreicht auch die akademische Welt. Eine Umfrage der Lumina Foundation und Gallup ergab, dass 47 Prozent der Studierenden ihre Fachwahl aufgrund der erwarteten KI-Auswirkungen ernsthaft überdenken. Rund 16 Prozent haben ihr Studienfach bereits gewechselt – primär wegen KI.

Die Zukunft gehört den autonomen Agenten

Die nächste Phase des Wettlaufs wird von „agentischer KI“ bestimmt – Systemen, die komplexe Aufgaben mit minimaler menschlicher Steuerung bewältigen. Forschungsergebnisse vom 12. April deuten an, dass sich selbst organisierende KI-Agenten in 25.000 Testaufgaben oft besser schlugen als streng hierarchisch geführte, neigen in unstrukturierten Umgebungen aber zur Fehlerverstärkung.

Die Hardware-Industrie rüstet sich für diesen Wandel. Intel und SambaNova kündigten am 12. April eine neue Plattform für agentische KI an, basierend auf dem Intel Xeon 6 Prozessor. Verfügbar sein soll sie in der zweiten Jahreshälfte 2026 für Cloud- und souveräne Einsätze.

Gleichzeitig suchen Forscher nach effizienteren Alternativen zu den riesigen Modellen der Marktführer. Neue neuro-symbolische KI-Modelle, vorgestellt im Frühjahr 2026, lösen komplexe Aufgaben mit nur einem Prozent der Trainings- und fünf Prozent der Betriebsenergie von Systemen wie ChatGPT. Angesichts wachsender Energieengpässe und regulatorischer Hürden könnte das nächste Kapitel im Duell OpenAI gegen Anthropic nicht nur von der Leistungsfähigkeit, sondern von Effizienz und Sicherheit der Modelle bestimmt werden.