Auslöser ist ein neues Modell mit beängstigenden Hacker-Fähigkeiten.
Am Dienstag verkündete das US-Handelsministerium neue Sicherheitsabkommen mit Google DeepMind, Microsoft und xAI. Die Konzerne verpflichten sich, ihre fortschrittlichsten KI-Modelle vor der Veröffentlichung von Bundesbehörden prüfen zu lassen. Bisher galt in den USA ein eher lockerer Kurs – doch die Sorge vor vollautonomen Systemen wächst rasant.
Die massiven Sicherheitsabkommen mit Tech-Giganten verdeutlichen, dass Künstliche Intelligenz zum alles entscheidenden Megatrend geworden ist. Ein kostenloser Report enthüllt nun die 10 Big-Data-Unternehmen, die das größte Potenzial für Ihr Depot bieten. Top 10 KI-Aktien jetzt gratis herunterladen
Die Mythos-Krise: Wenn KI zur Waffe wird
Im Zentrum der neuen Sicherheitsbedenken steht ein Modell des US-Unternehmens Anthropic mit dem Codenamen „Mythos“. Branchenanalysten zufolge besitzt die KI die Fähigkeit, selbstständig bislang unbekannte Sicherheitslücken in Computersystemen aufzuspüren und auszunutzen – sogenannte Zero-Day-Exploits. Diese Fähigkeit überschreitet alle bisherigen Sicherheitsschwellen für öffentlich zugängliche KI-Systeme.
Die Aufregung um Mythos hat längst den Atlantik überquert. Am heutigen Mittwoch befasste sich das Europäische Parlament in einer Anhörung mit den „überragenden Hacking-Fähigkeiten“ des Modells. Anthropic sagte die Teilnahme ab – woraufhin 30 EU-Abgeordnete einen Notfallplan für die Region forderten.
EU-Kommissar Valdis Dombrovskis bestätigte am Dienstag, dass die Union das Modell gegen die Infrastruktur europäischer Banken und Konzerne testen will. Sollte Anthropic die Sicherheitsbedenken nicht freiwillig ausräumen, droht Brüssel mit formellen Zugriffsrechten auf die Technologie – und zwar bis August 2026.
Der US-Geheimdienst NSA testet Mythos bereits in geheimen Umgebungen, um das Ausmaß seiner offensiven Fähigkeiten zu ermitteln.
Pflichtprüfung vor dem Marktstart
Das AI Safety Institute (CAISI) des US-Handelsministeriums hat sich als zentrale Prüfinstanz positioniert. Seit seiner Gründung hat die Behörde mit knapp 200 Mitarbeitern bereits über 40 KI-Tools evaluiert – darunter mehrere Modelle, die noch gar nicht auf dem Markt sind.
Die neuen Abkommen mit Google, Microsoft und xAI formalisieren einen Prozess, der zuvor nur auf freiwilliger Basis lief. Die Unternehmen stellen ihre Modelle in sicheren, klassifizierten Umgebungen zur Verfügung. Experten prüfen dort Risiken in den Bereichen Chemiewaffenproduktion, Biosecurity und Cybersicherheit.
Das Weiße Haus erwägt nun sogar eine Executive Order, die eine dauerhafte Überprüfungspflicht für Hochrisiko-KI-Modelle vorschreibt. Bisher galten die Abkommen als freiwillig – das könnte sich bald ändern.
Während die Politik neue Sicherheitsregeln prüft, müssen Unternehmen die Anforderungen des EU AI Acts bereits jetzt aktiv umsetzen. Dieser kompakte Leitfaden verschafft Ihnen den Überblick über alle Pflichten und Fristen, den Ihre IT-Abteilung jetzt dringend braucht. Kostenlosen Umsetzungsleitfaden zum EU AI Act herunterladen
Milliardenschwere Wetten auf die Zukunft
Während die Regulierer auf die Bremse treten, dreht die Industrie am Rad der Investitionen. OpenAI-Präsident Greg Brockman sagte am Dienstag in einem Gerichtsverfahren aus, dass sein Unternehmen 2026 rund 50 Milliarden Dollar für Rechenleistung ausgeben werde. Zum Vergleich: 2017 waren es noch 30 Millionen Dollar.
Gleichzeitig veröffentlichte OpenAI am Dienstag GPT-5.5 Instant als neues Standardmodell. Das Unternehmen verspricht eine Reduktion von KI-Halluzinationen um 52,5 Prozent bei risikoreichen Anfragen in den Bereichen Medizin, Recht und Finanzen.
Auch in Deutschland tut sich etwas: Der Softwarekonzern SAP übernahm das Freiburger Startup Prior Labs für über eine Milliarde Dollar. Zusätzlich investiert SAP eine Milliarde Euro in ein spezialisiertes KI-Labor. Interessant: SAP blockiert das agentische System „OpenClaw“ und lässt nur Nvidias „NemoClaw“ als externen KI-Agenten zu. Ein klares Signal, dass Unternehmen die Kontrolle über autonome Systeme behalten wollen.
Europa zwischen Sicherheit und Wettbewerb
Der Vorstoß für strengere Regeln stößt bei Europas Industrie auf Widerstand. Am Dienstag veröffentlichten sieben große Tech- und Industrieunternehmen – darunter Airbus, ASML, Ericsson, Nokia, SAP, Siemens und Mistral AI – einen offenen Brief. Sie fordern eine radikale Vereinfachung der EU-Digitalregulierung. Die aktuelle Bürokratie des EU AI Acts und der geplanten „AI Omnibus“-Verordnung ersticke die Innovation, so die Vorstandsvorsitzenden.
Die EU bereitet als Antwort ein „Tech-Sovereignty-Paket“ vor, das am 27. Mai vorgestellt werden soll. Es soll Sicherheit und Wettbewerbsfähigkeit unter einen Hut bringen.
Parallel dazu äußerten EU-Regulierer am Dienstag Skepsis gegenüber der Einführung von Teslas Full-Self-Driving-Technologie in Europa. Bedenken gibt es vor allem bei der Einhaltung von Geschwindigkeitsbegrenzungen und der Sicherheit bei Eisglätte.
Ausblick: Entscheidende Monate stehen bevor
Der Sommer 2026 wird richtungsweisend für die KI-Branche. Bis zum 27. Juli erwartet die EU eine wichtige Entscheidung zu Googles Datenschutzpraktiken. Und bis August läuft die Frist für Anthropic, Transparenz über seine leistungsstärksten Modelle zu schaffen.
Die freiwilligen Abkommen zwischen US-Regierung und Tech-Konzernen wirken wie ein vorläufiger Waffenstillstand. Ob daraus eine dauerhafte Partnerschaft wird oder ein regulatorischer Krieg – das entscheidet sich in den kommenden Wochen.

