OpenAI expandiert nach London und kämpft gegen KI-Missbrauch

OpenAI expandiert mit einem großen Forschungsstandort nach London, während es sich mit staatlichen Ermittlungen in Kanada und der Bekämpfung von KI-gestützten Betrugskampagnen auseinandersetzen muss.

KI-Riese baut größtes Forschungszentrum außerhalb der USA in der britischen Hauptstadt auf – gleichzeitig wächst der Druck durch Missbrauchsfälle und Regulierungsbehörden.

OpenAI steckt in einem fundamentalen Zwiespalt: Während das Unternehmen seinen globalen Einfluss mit einem Mega-Forschungszentrum in London ausbaut, muss es sich gleichzeitig mit staatlichen Ermittlern auseinandersetzen und KI-gestützte Betrugsnetzwerke bekämpfen. Die Entwicklungen der letzten Februarwoche 2026 zeigen das komplexe Spannungsfeld zwischen rasanter Innovation und wachsender gesellschaftlicher Verantwortung.

Anzeige

Angesichts der rasanten KI-Entwicklung und der zunehmenden Missbrauchsrisiken verschärft die EU die Regeln für den Einsatz dieser Technologien massiv. Dieser kostenlose Leitfaden hilft Unternehmen dabei, die Anforderungen der neuen KI-Verordnung rechtssicher umzusetzen und Bußgelder zu vermeiden. Kostenloses E-Book zur KI-Verordnung herunterladen

London wird europäischer KI-Hotspot

Am 26. Februar 2026 gab OpenAI offiziell bekannt, seinen größten Forschungsstandort außerhalb der USA in London zu errichten. Die Entscheidung unterstreicht den strategischen Wert des britischen Marktes im globalen Wettlauf um Künstliche Intelligenz. Für die britische Regierung ist der Zuschlag ein großer Erfolg im Bestreben, eine Technologie-Supermacht zu werden.

Laut Mark Chen, dem Forschungschef von OpenAI, fiel die Wahl auf London aufgrund der einzigartigen Kombination aus Top-Talenten, Elite-Universitäten und renommierten Forschungseinrichtungen. Branchenbeobachter erwarten nun einen verschärften Wettbewerb um KI-Experten in der Region. OpenAI tritt damit direkt mit Google DeepMind in Konkurrenz, das bereits Tausende Forscher im Vereinigten Königreich beschäftigt.

Die britische Technologieministerin Liz Kendall wertete die Expansion als „massives Vertrauensvotum“ für den heimischen Technologiesektor. Konkrete Investitionssummen oder die genaue Zahl neuer Arbeitsplätze nannte OpenAI zunächst nicht.

Bedrohungsreport enthüllt globale Betrugsnetzwerke

Parallel zur Europa-Expansion veröffentlichte OpenAI am 25. Februar einen umfassenden Bedrohungsreport. Das Dokument zeigt, wie Kriminelle und staatliche Akteure die KI-Modelle des Unternehmens für Desinformation und finanziellen Betrug nutzen.

Eine der aufgedeckten Kampagnen mit dem Codenamen „Fish Food“ war mit dem russischen Projekt „Rybar“ verbunden. Das Netzwerk nutzte ChatGPT, um mehrsprachige Desinformationsinhalte zu generieren – von Social-Media-Posts bis hin zu bezahlten Meinungsmache-Diensten. Die Operation funktionierte wie eine moderne Content-Farm.

Im Fall „False Witness“ erstellten Betrüger täuschend echte Kommunikationsmittel, um Anwälte und Kanzleien zu imitieren. Sie kontaktierten Opfer früherer Betrugsfälle und boten gegen Vorkasse in Kryptowährung an, ihr Geld zurückzuholen. Eine weitere Aktion, „Operation Date Bait“, setzte KI-generierte Chatbots für fingierte Dating-Dienste in Indonesien ein. OpenAI betont die Zusammenarbeit mit Behörden und Partnern, um solche Aktivitäten einzudämmen.

Anzeige

Die im Bedrohungsreport beschriebenen Methoden zeigen, wie professionell Hacker heute KI-Modelle für täuschend echte Betrugsversuche einsetzen. Wie Sie Ihr Unternehmen mit einer gezielten 4-Schritte-Strategie vor solchen Phishing-Angriffen und CEO-Fraud schützen, erfahren Sie in diesem Experten-Guide. Anti-Phishing-Paket kostenlos anfordern

Kanadische Regierung fordert Aufklärung nach Amoklauf

Trotz dieser Sicherheitsbemühungen steht OpenAI unter massivem Druck der kanadischen Regierung. Auslöser ist der tragische Amoklauf vom 10. Februar 2026 in Tumbler Ridge, bei dem ein 18-Jähriger acht Menschen tötete.

Recherchen ergaben, dass OpenAI das ChatGPT-Konto des Täters bereits im Juni 2025 gesperrt hatte. Grund waren Aktivitäten, die Gewalt verherrlichten. Obwohl automatisierte Systeme den Nutzer flaggten, sahen menschliche Prüfer keine unmittelbare Gefahr. Die Behörden wurden nicht informiert – ein Fehler, der heute nach neuen Richtlinien nicht mehr passieren würde, wie das Unternehmen beteuert.

Kanadas KI-Minister Evan Solomon zeigte sich „zutiefst beunruhigt“ über das Versäumnis und bestellte die OpenAI-Führung nach Ottawa ein. In einer Stellungnahme versprach die Vizepräsidentin für globale Politik, Ann M. O’Leary, künftig direkte Meldewege zu kanadischen Strafverfolgungsbehörden einzurichten.

Neue Features für professionelle Nutzer

Neben diesen kritischen Entwicklungen trieb OpenAI auch seine Produktpalette voran. Am 25. Februar führte das Unternehmen die neue „Living Sources“-Funktion in ChatGPT Projects ein. Sie erlaubt es Nutzern, Kontext aus externen Apps wie Slack oder Google Drive zu vereinen und dynamische Wissensdatenbanken zu erstellen.

Bereits früher im Monat kamen interaktive Code-Blöcke hinzu, mit denen Entwickler Code schreiben, bearbeiten und Vorschauen sowie Diagramme direkt im Chat anzeigen können. Diese Workflow-Verbesserungen basieren auf infrastrukturellen Anpassungen, darunter ein erweiterter Kontext von 256.000 Tokens im „Thinking“-Modus und die Ausmusterung älterer Modelle wie GPT-4o.

Ausblick: Innovation unter schärferer Aufsicht

Die Ereignisse Ende Februar 2026 markieren eine neue Phase für die KI-Branche. Die Expansion nach London zeigt den ungebrochenen kommerziellen Schwung. Gleichzeitig setzen die Vorladung vor das kanadische Parlament und der Bedrohungsreport ein deutliches Zeichen: Mit wachsender Verbreitung steigen auch die Risiken und die regulatorische Aufmerksamkeit.

Experten erwarten, dass sich in den kommenden Monaten schärfere Sicherheitsrahmen für KI entwickeln werden. OpenAIs Bekenntnis zu verbesserten Meldesystemen könnte hier einen neuen Industriestandard setzen. Die größte Herausforderung für den KI-Riesen wird es sein, das Tempo der Innovation mit der zunehmend geforderten Sicherheitsverantwortung in Einklang zu bringen – besonders im streng regulierten europäischen Raum.