KI-Hersteller Anthropic treibt mit einer strategischen Übernahme und einem neuen Sicherheitsprodukt den Wandel seiner KI-Plattform Claude vom Chat-Assistenten zum eigenständig agierenden Digital-Arbeiter voran. Die Entwicklungen markieren einen fundamentalen Schritt hin zu KI-Systemen, die komplexe Software-Workflows nahezu eigenständig ausführen können.
Seit August 2024 gelten neue KI-Regeln – viele Unternehmen riskieren unwissentlich Bußgelder. Die EU-KI-Verordnung ist bereits in Kraft. Dieser kostenlose Leitfaden zeigt, was Sie jetzt beachten müssen. EU-KI-Verordnung kompakt: Jetzt Gratis E-Book sichern
Übernahme bringt KI das „Sehen“ bei
Um die Fähigkeiten von Claude im Umgang mit Software zu beschleunigen, übernahm Anthropic Ende Februar das Startup Vercept. Das Unternehmen aus Seattle ist auf Technologien spezialisiert, mit denen KI-Systeme Bildschirminhalte „sehen“ und darin mittels simulierte Tastatur- und Mausinteraktionen handeln können. Das externe Produkt von Vercept wird eingestellt, das Team und die Technologie fließen direkt in Anthropic ein.
Die Integration soll Claude befähigen, mehrstufige Projektaufgaben eigenständig zu bearbeiten. Dazu zählen das Navigieren in komplexen Tabellenkalkulationen, das Verwalten von Datenbanken oder das Ausfüllen von Webformularen über mehrere Browser-Tabs hinweg. Aktuelle Leistungsdaten zeigen den rasanten Fortschritt: Das neue Modell Claude Sonnet 4.6 erreicht auf dem OSWorld-Benchmark für KI-Computernutzung bereits 72,5 Prozent. Als die Funktion Ende 2024 debütierte, lagen die Werte noch unter 15 Prozent. Analysten sehen Claude damit auf dem Weg, für spezifische Software-Aufgaben nahezu menschenähnliche Leistung zu erbringen.
KI als autonomer Sicherheitsforscher
Parallel startete Anthropic Claude Code Security. Dieses neue Tool, basierend auf dem leistungsstarken Opus-4.6-Modell, automatisiert die Suche und Behebung von Software-Sicherheitslücken. Statt nach einfachen Mustern zu suchen, agiert es wie ein eigenständiger Sicherheitsforscher: Es analysiert Datenflüsse in gesamten Codebasen, um komplexe, kontextabhängige Schwachstellen zu finden.
In der Testphase entdeckte das System über 500 bisher unbekannte, kritische Sicherheitslücken in Open-Source-Projekten – darunter tief verwurzelte Speicherkorruptions- und Injection-Fehler, die herkömmlichen Scans und menschlichen Experten jahrelang entgangen waren. Die KI generiert nicht nur Warnungen, sondern auch gezielte Patches zur Überprüfung durch Entwickler. Die Ankündigung löste an den Börsen einen deutlichen Kursrutsch bei traditionellen Cybersicherheitsunternehmen aus. Für Sicherheitsteams bedeutet der Ansatz eine drastische Reduzierung des Bearbeitungsstaus bei Sicherheitsproblemen.
Die zunehmende Automatisierung in der Softwareentwicklung schafft neue Einfallstore für Cyberkriminelle. Wie sich mittelständische Unternehmen effektiv gegen moderne Angriffe wappnen, enthüllt dieser Experten-Report mit bewährten Strategien. Kostenlosen Cyber-Security Leitfaden herunterladen
Durchbruch in der Finanzbranche
Die praktischen Auswirkungen zeigen sich bereits in der Wirtschaft. Das Versicherungs- und Finanzdienstleistungsunternehmen HUB International veröffentlichte am 25. Februar erste Ergebnisse des unternehmensweiten Claude-Einsatzes für seine 20.000 Mitarbeiter. Die Einführung, die Ende 2025 begann, gilt als eine der schnellsten großflächigen KI-Adoptionen im regulierten Finanzsektor.
Laut dem Unternehmen steigerte sich die Produktivität in ausgewählten Workflows um 85 Prozent. Mitarbeiter sparen im Schnitt zweieinhalb Stunden pro Woche, die Nutzerzufriedenheit liegt bei über 90 Prozent. Der Einsatz konzentriert sich auf interne Prozesse, die Bearbeitung komplexer Dokumente und die Software-Entwicklung. Branchenkenner betonen, dass HUB sich bewusst für Claude entschied – aufgrund seiner fortgeschrittenen Logikfähigkeiten, geringen Halluzinationsrate und robusten Sicherheitsarchitektur. Dies beweise, dass autonome KI auch mit sensiblen Daten in streng regulierten Branchen sicher umgehen kann.
Konflikt mit dem US-Verteidigungsministerium
Während Anthropic sein Geschäft ausbaut, muss das Unternehmen gleichzeitig schwierige ethische Grenzen navigieren. Ende Februar 2026 kam es zu einem offenen Konflikt mit dem US-Verteidigungsministerium. Die Pentagon soll gefordert haben, dass Anthropic Sicherheitsvorkehrungen in Claude entfernt, um eine uneingeschränkte militärische Nutzung zu ermöglichen.
Die Führung von Anthropic lehnte dies ab und verwies auf ihr Commitment, den Einsatz der Technologie für Massenüberwachung oder vollautonome Waffensysteme zu verhindern. Das Unternehmen hielt trotz Drohungen der Behörden an seiner Position fest, die einen 200-Millionen-Euro-Vertrag platzen lassen und Anthropic als Risiko für die Lieferkette einstufen wollten. Der Disput unterstreicht den Spagat des Unternehmens zwischen ethischen Leitplanken und dem harten Wettbewerbsdruck im KI-Markt.
Wettlauf um die autonome KI
Die jüngsten Entwicklungen markieren einen grundlegenden Wandel in der KI-Landschaft. Die Branche bewegt sich weg von statischer Texterzeugung hin zu autonomer Projektbearbeitung. Mit der Übernahme von Vercept und Claude Code Security positioniert Anthropic seine Modelle als digitale Arbeiter, die Software-Workflows von Anfang bis Ende ausführen können.
Technologie-Analysten sehen darin ein Wettrüsten der großen KI-Entwickler wie OpenAI, Meta und Google DeepMind um die Vorherrschaft im Bereich der autonomen KI. Dass Meta während der Übernahmeverhandlungen einen Mitgründer von Vercept abwarb, unterstreicht den erbitterten Kampf um spezialisierte Talente. Die Disruption im Markt für Anwendungssicherheit durch Claude Code Security zeigt zudem: Traditionelle Software-Anbieter müssen sich schnell auf eine Welt einstellen, in der KI-Modelle ihren eigenen Code nicht nur finden, sondern auch reparieren können.





