KI-Gigant schlägt Alarm: Google DeepMind fordert sofortige Forschung zu Sicherheitslücken in autonomen Systemen. Die Warnung fiel auf einem Gipfel in Neu-Delhi, zeitgleich mit neuen Daten zu staatlich geförderten Cyberangriffen.
Zwei fundamentale Risiken identifiziert
Auf dem AI Impact Summit skizzierte DeepMind-CEO Demis Hassabis zwei akute Bedrohungskategorien. Zum einen die unmittelbare Gefahr durch böswillige Akteure, die fortschrittliche Algorithmen für Cyberangriffe und Desinformationskampagnen nutzen. Zum anderen das langfristige, existenzielle Risiko, die Kontrolle über hochfähige autonome Systeme zu verlieren.
Hassabis räumte ein, dass Regulierungsbehörden mit dem rasanten Fortschritt kaum Schritt halten können. Er plädierte für intelligente Regulierungsrahmen, die konkrete Risiken adressieren, ohne Innovation zu ersticken. „Ein einzelnes Unternehmen ist nur ein Teil des globalen Ökosystems“, so der CEO.
Angriffe zielen jetzt auf die Modelle selbst
Die Dringlichkeit der Warnung wird durch aktuelle Erkenntnisse des Google Threat Intelligence Group untermauert. Sicherheitsforscher beobachten einen Paradigmenwechsel: Angreifer versuchen nicht mehr nur, Systeme zu manipulieren, sondern stehlen die zugrundeliegenden Algorithmen im großen Stil.
Diese als Modell-Extraktion oder Distillation Attacks bekannte Technik nutzt legitime API-Zugriffe, um das Verhalten und die Logik reifer KI-Systeme abzugreifen. Die gestohlenen Daten trainieren dann konkurrierende Modelle zu einem Bruchteil der ursprünglichen Entwicklungskosten. Herkömmliche Netzwerksicherheit ist gegen diese hochsophistische Form des Diebstahls geistigen Eigentums machtlos.
Staaten nutzen KI für Cyber-Spionage
Die Bedrohung geht über Wirtschaftsspionage hinaus. Google-Daten zeigen, dass staatlich unterstützte Gruppen aus Ländern wie Iran und Nordkorea große Sprachmodelle einsetzen, um ihre Angriffe zu skalieren.
Die KI hilft bei der automatisierten Recherche zu hochrangigen Regierungsbeamten und Verteidigungszielen. So entstehen hochgradig personalisierte Phishing-Kampagnen und gefälschte Identitäten für Social Engineering. „Gegner haben diese Tools fest in ihren Betriebsalltag integriert“, bestätigt John Hultquist, Chefanalyst bei Google.
Globale Regulierung in der Sackgasse
Die politischen Diskussionen in Neu-Delhi offenbarten tiefe Gräben. Während sich Tech-Konzerne wie OpenAI ebenfalls für schnelle Regulierung aussprachen, lehnte die US-Delegation zentrale globale Governance strikt ab. Dies erschwert die europäische Position, wo der EU-Künstliche-Intelligenz-Akt bereits strenge Vorgaben für Unternehmen wie SAP oder die Telekom setzt.
Die EU-KI-Verordnung zieht seit August 2024 neue Pflichten nach sich – von Risikoklassifizierung bis zu umfangreicher Dokumentation. Wer als Unternehmen jetzt schnell wissen will, welche Anforderungen gelten und wie sich KI-Systeme rechtssicher einordnen lassen, findet im kostenlosen Umsetzungsleitfaden klare Schritte, Fristen und praxisnahe Checklisten. Jetzt kostenlosen Leitfaden zur EU-KI-Verordnung herunterladen
Ohne internationalen Konsens müssen multinationale Konzerne ein zersplittertes regulatorisches Umfeld navigieren. Für deutsche DAX-Unternehmen bedeutet das zusätzliche Compliance-Herausforderungen.
KI-Sicherheit wird zum Wettrennen
Die Ereignisse markieren eine Wende: Der Fokus verschiebt sich von reinen Fähigkeits-Meilensteinen hin zu struktureller Sicherheit. Große Sprachmodelle sind zur kritischen Infrastruktur geworden – ihre Schwachstellen bedrohen globale Lieferketten und Finanznetze.
Das Spannungsfeld zwischen rascher kommerzieller Nutzung und notwendiger Sicherheitsvalidierung wird in Europa immer sichtbarer. Während Großkonzerne Angriffe in Echtzeit abwehren können, sind kleinere Unternehmen und Open-Source-Projekte stark gefährdet. Sicherheitsexperten fordern autonome Abwehrsysteme, die KI nutzen, um Bedrohungen in Maschinengeschwindigkeit zu neutralisieren. Ein digitales Wettrüsten ist entbrannt.
Ausblick: Fragmentierte Sicherheitslandschaft
Für 2026 zeichnet sich eine massive Umschichtung von Unternehmensressourcen in die defensive KI-Forschung ab. Sicherheitsanbieter werden spezielle Tools entwickeln, um Modell-Extraktion zu verhindern.
Auf regulatorischer Ebene ist ein global einheitlicher Vertrag in weiter Ferne. Stattdessen werden Regionen eigene Standards durchsetzen. Für KI-Entwickler schließt sich das Zeitfenster, proaktive Sicherheitsvorkehrungen zu etablieren, rapide. Die kommenden Monate werden entscheidend sein, um katastrophale Systemausfälle zu verhindern.





