Anthropics bahnbrechende KI für autonome Computersteuerung katapultiert das Unternehmen auf einen Marktwert von 380 Milliarden Dollar – und in einen schweren Konflikt mit dem US-Verteidigungsministerium. Die Technologie, die KI-Modelle physisch mit Desktops interagieren lässt, ist der Motor eines beispiellosen kommerziellen Erfolgs. Doch nun stellt das Pentagon das Unternehmen als Sicherheitsrisiko ein.
Die Revolution am Bildschirm: Von Chatbots zu digitalen Handlangern
Der Grundstein für Anthropics Dominanz liegt in einer scheinbar simplen Fähigkeit: der Steuerung eines Computer-Cursors. Ende 2024 führte das Unternehmen mit Claude 3.5 Sonnet eine Technologie ein, die den Sprung von textbasierten Chatbots zu aktiven digitalen Agenten markierte. Das System analysiert Bildschirmpixel, berechnet exakte Koordinaten und bewegt den Mauszeiger autonom – genau wie ein Mensch.
Während KI-Agenten wie Claude die Arbeitswelt revolutionieren, verschärfen neue Gesetze die Anforderungen an die IT-Sicherheit in Unternehmen drastisch. Dieser Experten-Report zeigt Ihnen, wie Sie Ihre Infrastruktur 2024 effektiv schützen, ohne Ihr Budget zu sprengen. Cyber Security Strategien für Unternehmen kostenlos ansehen
Im Februar 2026 baute Anthropic diesen Ansatz mit dem Cowork AI-Agenten für Büroumgebungen aus. Statt für jede Software eine eigene Schnittstelle zu benötigen, bedient sich die KI des Computers wie ein menschlicher Nutzer. Branchenbeobachter sehen darin eine neue Orchestrierungsebene, die isolierte Software-Ökosysteme überwindet und Routineabläufe automatisiert.
Finanz-Tsunami: 30 Milliarden Dollar und explodierende Umsätze
Die Kommerzialisierung dieser Fähigkeiten löste einen finanziellen Boom aus. Mitte Februar 2026 schloss Anthropic eine Series-G-Finanzierungsrunde über 30 Milliarden Dollar ab. Angeführt von Investoren wie GIC und Coatue, mit Beteiligung von Microsoft und Nvidia, verdoppelte sich die Unternehmensbewertung damit auf 380 Milliarden Dollar.
Treiber dieses Wahnsinnswerts ist die massive Nachfrage nach Claude Code, einem Produkt, das stark auf die autonome Ausführung setzt. Dessen Umsatzlaufrate erreichte im Februar 2,5 Milliarden Dollar – mehr als das Doppelte vom Jahresanfang. Unternehmenskunden machen inzwischen über die Hälfte des Produktumsatzes aus. Der Gesamtumsatz von Anthropic soll bei etwa 14 Milliarden Dollar jährlich liegen. Marktberichte deuten darauf hin, dass ein wachsender Anteil des globalen Software-Codes bereits autonom von Claude Code geschrieben wird.
Eklat mit dem Pentagon: Ethik vs. „Nationale Sicherheit“
Doch der überwältigende Erfolg im Privatsektor kollidierte frontal mit den Interessen des US-Militärs. Am 27. Februar 2026 erklärte Verteidigungsminister Pete Hegseth Anthropic offiziell zum Risiko für die Lieferkette der nationalen Sicherheit.
Hintergrund sind gescheiterte Verhandlungen. Laut Anthropic weigerte sich das Unternehmen, seine Claude-Modelle für Massenüberwachung US-amerikanischer Bürger oder den Betrieb vollautonomer tödlicher Waffen freizugeben. Die Trump-Administration wies Bundesbehörden an, Anthropics Technologie innerhalb von sechs Monaten abzuschaffen. Das Pentagon pocht auf uneingeschränkte Nutzung für alle legalen Zwecke, Anthropic beruft sich auf unverhandelbare Sicherheitsprinzipien. Eine beispiellose Maßnahme gegen ein US-Tech-Unternehmen.
Die rasante Entwicklung autonomer Systeme wie Claude Code rückt auch die rechtlichen Leitplanken in den Fokus, da die EU-KI-Verordnung bereits strenge Dokumentationspflichten vorschreibt. Sichern Sie sich diesen kostenlosen Leitfaden, um die Risikoklassen und Kennzeichnungspflichten für Ihr Unternehmen rechtssicher umzusetzen. Gratis E-Book zur EU-KI-Verordnung herunterladen
Branchenbeben: Machtverschiebung zwischen Silicon Valley und Washington
Der Konflikt markiert eine Zäsur für die gesamte KI-Branche. Experten warnen: Wenn ethische Grenzziehungen mit nationalen Sicherheitsargumenten bestraft werden, könnte das einen abschreckenden Effekt auf KI-Sicherheitsforschung haben. Wer würde noch strenge Nutzungsbeschränkungen implementieren, wenn dies lukrative Regierungsaufträge kostet?
Die Finanzmärkte feiern derweil Anthropics Unternehmensstrategie. Die Fähigkeit, die Ausführungsoberfläche – den physischen Zugriff auf die Computeroberfläche – zu kontrollieren, positioniert das Unternehmen nicht nur als Modellanbieter, sondern als grundlegende Betriebsschicht für künftige Arbeitsabläufe. Dies bringt Anthropic in direkte Konkurrenz zu Rivalen wie OpenAI, das angeblich nach Bewertungen über 800 Milliarden Dollar strebt.
Was kommt jetzt? Klage und technische Reifung
Für das restliche Jahr 2026 wird Anthropic von zwei Narrativen geprägt sein: rasante Technologieakzeptanz und regulatorische Reibung. Rechtsanwälte des Unternehmens kündigten an, die Einstufung als Lieferkettenrisiko gerichtlich anzufechten. Sie argumentieren, die entsprechenden Gesetze seien für ausländische Gegner gedacht, nicht für inländische Firmen mit ethischen Standards.
Technologisch dürften die Fähigkeiten der Cursor-Steuerung schnell reifen. Mit Cowork und Claude Code als Zugpferden wird die KI immer komplexere grafische Oberflächen in Echtzeit handhaben können. Die Branche wird genau beobachten, ob Anthropic seine Milliarden-Bewertung halten und sein Agenten-Ökosystem ausbauen kann – während es einen der schwersten Vertragsstreits mit der Regierung der jüngeren Geschichte austrägt.





