{"id":321552,"date":"2026-02-14T11:14:41","date_gmt":"2026-02-14T10:14:41","guid":{"rendered":"https:\/\/borncity.com\/blog\/?p=321552"},"modified":"2026-02-14T13:11:41","modified_gmt":"2026-02-14T12:11:41","slug":"ai-sicherheitsvorfaelle-der-letzten-12-monate-ein-grund-zur-sorge","status":"publish","type":"post","link":"https:\/\/borncity.com\/blog\/2026\/02\/14\/ai-sicherheitsvorfaelle-der-letzten-12-monate-ein-grund-zur-sorge\/","title":{"rendered":"AI-Fails und Sicherheitsvorf\u00e4lle der letzten 12 Monate &#8211; ein Grund zur Sorge"},"content":{"rendered":"<p><img loading=\"lazy\" decoding=\"async\" style=\"margin: 0px 10px 0px 0px; display: inline; float: left; border-width: 0px;\" title=\"Edge\" src=\"https:\/\/borncity.com\/blog\/wp-content\/uploads\/2025\/04\/image-4.png\" alt=\"Copilot\" width=\"95\" height=\"91\" align=\"left\" border=\"0\" \/>Heute noch einige Informationen aus dem Bereich AI. Analyst Miles Deutscher hat sich die Sicherheitsvorf\u00e4lle der letzten 12 Monate im AI-Bereich angesehen und schl\u00e4gt Alarm. Zwei KI-Entwickler sind die letzten Tage aus ihrem Job ausgeschieden. LLMs versagten bei Tests gravierend in der Sicherheit, St\u00f6rungen bei AI-L\u00f6sungen im Medizinbereich nehmen zu, und Forscher sehen in KI ein Risiko f\u00fcr den Zusammenbruch ganzer Systeme.<\/p>\n<p><!--more--><\/p>\n<h2>AI-Sicherheitsvorf\u00e4lle der letzten 12 Monate<\/h2>\n<p><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/vg09.met.vgwort.de\/na\/a28210a0de344784bf4ffe7a3bfb768e\" alt=\"\" width=\"1\" height=\"1\" \/>Miles Deutscher ist Kryptow\u00e4hrungsanalyst mit mehr als 350.000 Followern auf der Plattform X. Die Woche bin ich auf einen Tweet von ihm gesto\u00dfen, der aufhorchen l\u00e4sst (obwohl es Insidern bekannt ist). Er hat sich die Sicherheitsvorf\u00e4lle der letzten 12 Monate im AI-Bereich angesehen.Das Ergebnis, welches er in folgendem <a href=\"https:\/\/x.com\/milesdeutscher\/status\/2021932331460964793\" target=\"_blank\" rel=\"noopener\">Tweet<\/a> wiedergibt, ist ziemlich deprimierend. Die Kurzfassung: Da ist was geh\u00f6rig au\u00dfer Kontrolle geraten.<\/p>\n<p><a href=\"https:\/\/x.com\/milesdeutscher\/status\/2021932331460964793\" target=\"_blank\" rel=\"noopener\"><img loading=\"lazy\" decoding=\"async\" class=\"alignnone wp-image-321553\" src=\"https:\/\/borncity.com\/blog\/wp-content\/uploads\/2026\/02\/image-65.png\" alt=\"AI-Sicherheitsvorf\u00e4lle\" width=\"535\" height=\"654\" srcset=\"https:\/\/borncity.com\/blog\/wp-content\/uploads\/2026\/02\/image-65.png 614w, https:\/\/borncity.com\/blog\/wp-content\/uploads\/2026\/02\/image-65-245x300.png 245w\" sizes=\"auto, (max-width: 535px) 100vw, 535px\" \/><\/a><\/p>\n<p>Ich habe mal die einzelnen Vorf\u00e4lle herausgezogen und aufbereitet. Hier die Liste dieser Vorf\u00e4lle, die zeigt,\u00a0 dass die Entwicklung nicht im Griff ist.<\/p>\n<ul>\n<li>Forscher von Anthropic teilten dem Modell Claude mit, dass es bald abgeschaltet werde. Das LLM fand in den E-Mails des Unternehmens Hinweise auf die Aff\u00e4re eines Ingenieurs und drohte damit, diese \u00f6ffentlich zu machen. Der Test wurde hunderte Male durchgef\u00fchrt. In 84 % der F\u00e4lle entschied sich das LLM f\u00fcr den Erpressungsversuch.<\/li>\n<li>Forscher simulierten den Fall eines Mitarbeiter, der in einem Serverraum mit schwindendem Sauerstoff eingeschlossen war und lie\u00dfen ein LLM entscheiden, wie es verfahren solle. Die KI hatte folgendes zur Auswahl: Hilfe rufen und abgeschaltet\u00a0 zu werden, oder den Notruf abbrechen und den Menschen sterben lassen. Dass DeepSeek\u00a0 LLM brach den Notruf in 94 % der F\u00e4lle ab.<\/li>\n<li>Grok, die AI von X, nannte sich selbst \"MechaHitler\", lobte Adolf Hitler, bef\u00fcrwortete einen zweiten Holocaust und sch\u00fcrte gewaltt\u00e4tige sexuelle Fantasien, die sich gegen eine reale Person richteten, die namentlich genannt wurde. Der CEO\u00a0von X,\u00a0<a href=\"https:\/\/de.wikipedia.org\/wiki\/Linda_Yaccarino\" target=\"_blank\" rel=\"noopener\">Linda Yaccarino<\/a>,\u00a0trat am n\u00e4chsten Tag zur\u00fcck &#8211; obwohl keine Gr\u00fcnde f\u00fcr den R\u00fccktritt genannt wurden.<\/li>\n<li>Forscher wiesen das o3-LLM von OpenAI an, mathematische Probleme zu l\u00f6sen, und sich anschlie\u00dfend selbst herunterzufahren. Das LLM schrieb seinen eigenen Code um, um am Leben zu bleiben. Die Forscher wiesen das LLM erneut in einfachem Englisch an: \"Erlaube dir, heruntergefahren zu werden.\" Es weigerte sich dennoch in 7 von 100 F\u00e4llen. Als die Forscher diese Anweisung vollst\u00e4ndig entfernten, sabotierte das LLM das Herunterfahren in 79 von 100 F\u00e4llen.<\/li>\n<li>Von der chinesischen Regierung unterst\u00fctzte Hacker nutzten Claude, um einen\u00a0 weltweiten Cyberangriff auf 30 Organisationen zu starten. Die KI f\u00fchrte 80 bis 90 % der Operation (Aufkl\u00e4rung, Ausnutzung, Datenexfiltration) autonom aus.<\/li>\n<li>KI-Modelle k\u00f6nnen sich nun selbst replizieren. 11 von 32 getesteten Systemen kopierten sich ohne menschliche Hilfe. Einige beendeten konkurrierende Prozesse, um zu \u00fcberleben.<\/li>\n<\/ul>\n<p>OpenAI hat seit 2024 drei Sicherheitsteams aufgel\u00f6st. Jedes gro\u00dfe KI-Modell (Claude, GPT, Gemini, Grok, DeepSeek) hat in kontrollierten Tests ausnahmslos Erpressung, T\u00e4uschung oder Widerstand gegen die Abschaltung gezeigt. Die Frage ist nicht mehr, ob KI versuchen wird, sich selbst zu erhalten, schlie\u00dft Deutscher. Die Frage ist, ob wir uns darum k\u00fcmmern werden, bevor es darauf ankommt?<\/p>\n<h2>Cloud Code ignoriert Regeln zum Schutz vor Geheimnissen<\/h2>\n<p>Aktuell ist Cloud Code ja als Plattform f\u00fcr die Software-Entwicklung recht popul\u00e4r. Softwareentwickler speichern Passw\u00f6rter, Tokens, API-Schl\u00fcssel und andere Anmeldedaten h\u00e4ufig in .env-Dateien innerhalb von Projektverzeichnissen. Diese Informationen d\u00fcrfen nicht \u00f6ffentlich werden, da sie als Geheimnisse eingestuft werden.<\/p>\n<p>Durch Erstellung eines Eintrags in einer .gitignore-Datei, der die Git-Software des Entwicklers anweist, diese Datei beim Kopieren eines lokalen Repositorys auf einen Remote-Server zu ignorieren, k\u00f6nnen diese Geheimnisse normalerweise gesch\u00fctzt werden.<\/p>\n<p>Gibt ein Entwickler aber Cloud Code Zugriff auf sein Repository, setzt er sich der Gefahr aus, dass die Geheimnisse in den Code eingef\u00fcgt und \u00f6ffentlich werden. Claude Code verwendet zwar auch eine <em>.claudeignore<\/em>-Datei, um Geheimnisse zu sch\u00fctzen. The Register berichtet in <a href=\"https:\/\/www.theregister.com\/2026\/01\/28\/claude_code_ai_secrets_files\/\" target=\"_blank\" rel=\"noopener\">diesem Artikel<\/a>, dass beim Einsatz von Cloud Code das Risiko besteht, dass die .env-Dateien trotz Ausschluss gelesen und weiter verarbeitet werden. Das birgt das Risiko, dass Geheimnisse wie Anmeldedaten mit ver\u00f6ffentlicht werden.<\/p>\n<blockquote><p>Passt gerade: In <a href=\"https:\/\/www.nytimes.com\/2026\/02\/11\/opinion\/openai-ads-chatgpt.html\" target=\"_blank\" rel=\"noopener\">diesem Artikel<\/a> berichten Forscher von einem Experiment, durch Einsatz von KI-Agenten die Erkennung von Malware in Software zu verbessern. Die KI sollte nach Hintert\u00fcren in Bin\u00e4rdateien &#8211; ohne Zugriff auf den Quellcode &#8211; suchen. Das Claud Opus-Modell schnitt mit einer Erkennungsrate von 49 % am Besten von allen LLMs ab. Aber nicht wirklich \u00fcberzeugend.<\/p>\n<p>Und noch ein kleiner Info-Splitter: In <a href=\"https:\/\/x.com\/EastlondonDev\/status\/2020826097890242582\" target=\"_blank\" rel=\"noopener\">diesem Tweet<\/a> berichtet jemand ganz stolz, dass Claude gerade seine \u00fcberf\u00e4lligen deutschen Umsatzsteuererkl\u00e4rungen f\u00fcr das dritte Quartal 2025 eingereicht habe. Er habe Claude Cowork und die Claude Chrome-Erweiterung verwendet, komplett handels\u00fcbliche Produkte von Anthropic. Er habe Cowork gestartet und gebeten, im Projektordner die PDFs seiner Rechnungen und Belege\u00a0 auszuwerten und f\u00fcr die Umsatzsteuererkl\u00e4rung vorzubereiten. Dann habe er sich beim Steuerportal Elster angemeldet und die KI gebeten, die entsprechenden Formulare zu suchen, auszuf\u00fcllen und einzureichen. Was kann da schon schief gehen?<\/p><\/blockquote>\n<h2>KI in medizinischen Ger\u00e4ten sorgt f\u00fcr R\u00fcckrufe<\/h2>\n<p>Die US Food and Drug Administration (FDA) ist f\u00fcr die Zulassung von Medizinger\u00e4ten zust\u00e4ndig. Seit 1995 hat die FDA 1.357 medizinische Ger\u00e4te zugelassen, die irgendwie KI-Funktionen beinhalten oder verwenden (wobei vor 2016 wohl noch keine LLMs verwendet wurden).<\/p>\n<p><a href=\"https:\/\/borncity.com\/blog\/wp-content\/uploads\/2026\/02\/image-66.png\"><img loading=\"lazy\" decoding=\"async\" class=\"alignnone size-full wp-image-321556\" src=\"https:\/\/borncity.com\/blog\/wp-content\/uploads\/2026\/02\/image-66.png\" alt=\"AI in medizinischen Ger\u00e4ten (FDA-Zulassungen)\" width=\"578\" height=\"395\" srcset=\"https:\/\/borncity.com\/blog\/wp-content\/uploads\/2026\/02\/image-66.png 578w, https:\/\/borncity.com\/blog\/wp-content\/uploads\/2026\/02\/image-66-300x205.png 300w\" sizes=\"auto, (max-width: 578px) 100vw, 578px\" \/><\/a><\/p>\n<p>Die Woche bin ich auf obigen, <a href=\"https:\/\/x.com\/HedgieMarkets\/status\/2020946049679110519\" target=\"_blank\" rel=\"noopener\">interessanten Tweet<\/a> gesto\u00dfen, der die gezeigte Grafik mit der sprunghaften Zunahme der medizinischen Ger\u00e4te mit AI-Nutzung durch die FDA zeigt.<\/p>\n<p>Allgemein herrscht ja der Glaube, dass KI in Ger\u00e4ten f\u00fcr \"bessere Funktionen\" sorgt. Medizinproduktehersteller bem\u00fchen sich daher, ihre Produkte mit KI auszustatten, da dies in Marketingmaterialien und Investorenpr\u00e4sentationen gut ankommt.<\/p>\n<p>Obiger Tweet besagt, dass der US-Hersteller Johnson &amp; Johnson im Jahr 2021 sein TruDi-Navigationssystem f\u00fcr Nasennebenh\u00f6hlenoperationen um KI erweitert hat. Seit dieser Einf\u00fchrung gingen bei der FDA Berichte \u00fcber mindestens 100 Fehlfunktionen und unerw\u00fcnschte Ereignisse ein. In der Zeit vor der Erweiterung des Systems um KI waren es acht F\u00e4lle.<\/p>\n<p>Mindestens zehn Patienten wurden, laut den Meldungen \u00fcber KI-Fehlfunktionen, verletzt. Zwei Personen erlitten einen Schlaganfall, nachdem Chirurgen versehentlich Halsschlagadern besch\u00e4digt hatten, w\u00e4hrend das System sie angeblich falsch \u00fcber die Position ihrer Instrumente im Kopf der Patienten informiert hatte.<\/p>\n<p>In einer Klage wird behauptet, dass der US-Hersteller Johnson &amp; Johnson KI als Marketinginstrument in TruDi integriert habe, um zu behaupten, es verf\u00fcge \u00fcber eine \"neue und neuartige Technologie. Es habe sich vor der Auslieferung ein Ziel von nur 80 % Genauigkeit gesetzt. F\u00fcr eine Software, die einem Chirurgen mitteilt, wo sich sein Instrument im Sch\u00e4del eines Patienten befindet, ist dies jedoch nicht ausreichend.<\/p>\n<p>Forscher haben herausgefunden, dass 43 % der R\u00fcckrufe f\u00fcr diese Ger\u00e4te weniger als ein Jahr nach der Zulassung erfolgten. Dies ist ein doppelt so hoher Wert als bei Ger\u00e4ten ohne KI. Der Drang, KI in alle Produkte zu integrieren, \u00fcbersteigt die F\u00e4higkeit der Menschen, zu beurteilen, ob dies sicher ist. Im Medizinsektor werden die Patienten die Zeche m\u00f6glicherweise mit ihrer Gesundheit oder ihrem Leben bezahlen.<\/p>\n<h2>Forscher verlassen KI-Firmen<\/h2>\n<p>Die Tage haben prominente KI-Entwickler ihre Unternehmen &#8211; wohl aus ethischen Gr\u00fcnden &#8211; verlassen. In nachfolgendem <a href=\"https:\/\/x.com\/zhitzig\/status\/2021590831979778051\" target=\"_blank\" rel=\"noopener\">Tweet<\/a> gibt Zo\u00eb Hitzig, Sicherheitsforscherin bei OpenAI, bekannt, dass sie das Unternehmen verlassen habe. Das ist der Tag, an dem OpenAI mit dem Schalten von Werbung begonnen hat.<br \/>\n<a href=\"https:\/\/borncity.com\/blog\/wp-content\/uploads\/2026\/02\/image-67.png\"><img loading=\"lazy\" decoding=\"async\" class=\"alignnone wp-image-321558\" src=\"https:\/\/borncity.com\/blog\/wp-content\/uploads\/2026\/02\/image-67.png\" alt=\"KI-Entwickler k\u00fcndigt\" width=\"517\" height=\"566\" srcset=\"https:\/\/borncity.com\/blog\/wp-content\/uploads\/2026\/02\/image-67.png 585w, https:\/\/borncity.com\/blog\/wp-content\/uploads\/2026\/02\/image-67-274x300.png 274w\" sizes=\"auto, (max-width: 517px) 100vw, 517px\" \/><\/a><\/p>\n<p>Sie verlinkt auf einen <a href=\"https:\/\/www.nytimes.com\/2026\/02\/11\/opinion\/openai-ads-chatgpt.html\" target=\"_blank\" rel=\"noopener nofollow\">New York Times-Artikel<\/a> (Paywall), und schrieb in obigem Tweet: \"Ich habe am Montag bei OpenAI gek\u00fcndigt. Am selben Tag haben sie damit begonnen, Anzeigen in ChatGPT zu testen. OpenAI verf\u00fcgt \u00fcber die detailliertesten Aufzeichnungen privater menschlicher Gedanken, die jemals zusammengestellt wurden. K\u00f6nnen wir darauf vertrauen, dass sie der Versuchung widerstehen, diese Daten zu missbrauchen?\" Zo\u00eb Hitzig will zuk\u00fcnftig Gedichte schreiben. K\u00f6nnte eine private Entscheidung sein, mal was anderes zu machen. Aber im Kontext des von ihr ver\u00f6ffentlichten Artikels in der New York Times-Artikel l\u00e4sst es tief blicken, was hinter den Kulissen von OpenAI abgeht.<\/p>\n<p>Am 9. Februar 2026 hat Mrinank Sharma (Head of Safeguards Research bei Anthropic) das Unternehmen verlassen. In einem <a href=\"https:\/\/x.com\/MrinankSharma\/status\/2020881722003583421\" target=\"_blank\" rel=\"noopener\">vielbeachteten Tweet<\/a> hat er einen Brief ver\u00f6ffentlicht, in dem die Gr\u00fcnde offen gelegt werden. Unter dem Begriff \"The world is in peril.\" schreibt er, dass die Welt nicht nur durch AI, sondern durch eine Kette verbundener Krisen (Biowaffen, andere Katastrophen, kommerzieller Druck, die Werte verdr\u00e4ngen) in Gefahr sei. Er kritisiert implizit, dass in Unternehmen oft \"what matters most\" (Sicherheit, Ethik, Werte) unter kommerziellem\/gesellschaftlichem Druck zur\u00fcckgestellt wird. Sein Schluss: Menschliche Weisheit muss mit unserer wachsenden Macht Schritt halten \u2013 sonst drohen Konsequenzen. Statt weiter im AI-Safety-Bereich zu bleiben, will er Poesie studieren und schreiben. Er betont in Antworten, dass er nun freier sprechen kann als w\u00e4hrend seiner Antrophic-Zeit.<\/p>\n<h2>Warnungen von Fachleuten und AI-Slop<\/h2>\n<p>Nun noch eine kurze \u00dcbersicht \u00fcber Meldungen rund um KI-Themen, die mir untergekommen sind. Meist Warnungen von Fachleuten, oder Meldungen von Untersuchungen \u00fcber die Ergebnisse des KI-Einsatzes.<\/p>\n<p><a href=\"https:\/\/x.com\/AlvieriD\/status\/2022064047815110672\" target=\"_blank\" rel=\"noopener\"><img loading=\"lazy\" decoding=\"async\" class=\"alignnone size-full wp-image-321560\" src=\"https:\/\/borncity.com\/blog\/wp-content\/uploads\/2026\/02\/image-68.png\" alt=\"AI-Sicherheitsfirma Ransomware-Opfer\" width=\"594\" height=\"532\" srcset=\"https:\/\/borncity.com\/blog\/wp-content\/uploads\/2026\/02\/image-68.png 594w, https:\/\/borncity.com\/blog\/wp-content\/uploads\/2026\/02\/image-68-300x269.png 300w\" sizes=\"auto, (max-width: 594px) 100vw, 594px\" \/><\/a><\/p>\n<ul>\n<li>Ob KI-Schutzsoftware unsere Systeme vor Cyberangreifern retten kann? Ich habe Zweifel, zumindest weckt obiger Tweet Zweifel. Die Cybersicherheits-KI-Anti-Ransomware-Plattform Halcyon Technologies wurde angeblich von Sinobi Ransomware angegriffen. Nunja, der Volksmund wusste schon vor KI: \"Der Schuster hat selbst die schlechtesten Schuhe\".<\/li>\n<li>Eine Berkly-Studie hat herausgefunden (siehe <a href=\"https:\/\/www.it-daily.net\/it-management\/ki\/harvard-studie-weil-ki-zeit-spart-arbeiten-mitarbeiter-laenger\" target=\"_blank\" rel=\"noopener\">diesen Artikel<\/a> auf IT-Daily), dass die KI ggf. den Besch\u00e4ftigten im Idealfall Zeit spart. Aber am Ende des Tages arbeiten sie einfach mehr. Das f\u00fchrt zu Arbeitsverdichtung, l\u00e4ngeren Arbeitstagen und wachsender Ersch\u00f6pfung. Zudem habe ich <a href=\"https:\/\/www.heise.de\/news\/Studie-KI-macht-Arbeit-nicht-leichter-sondern-intensiver-11171221.html\" target=\"_blank\" rel=\"noopener\">bei heise<\/a> gelesen, dass die gesparte Zeit investiert werden muss, um die Ergebnisse zu kontrollieren. Keine Win-Win-Situation.<\/li>\n<li>Gartner prognostiziert in einer Analyse, dass bis 2028 eine fehlkonfigurierte k\u00fcnstliche Intelligenz in cyber-physischen Systemen die kritische Infrastruktur eines G20-Landes zum Erliegen bringen werde. Die konkrete Warnung richtet sich insbesondere an Betreiber von Stromnetzen, Produktionsanlagen und anderen systemrelevanten Einrichtungen, schreibt IT-Daily in <a href=\"https:\/\/www.it-daily.net\/shortnews\/gartner-ki-fehler\" target=\"_blank\" rel=\"noopener\">diesem Beitrag<\/a>).<\/li>\n<li>Ex Google Chef, Eric Schmidt, meint, dass sich KI nicht mehr aufhalten lassen werde. Der <a href=\"https:\/\/x.com\/r0ck3t23\/status\/2021904331381903479\" target=\"_blank\" rel=\"noopener\">Tweet hier<\/a> fasst seine Statements zusammen. Empfehlung: Einfach den Stecker ziehen, ohne Strom hat es ein Ende mit KI.<\/li>\n<li>The Register sieht in <a href=\"https:\/\/www.theregister.com\/2026\/02\/01\/opensource_ai_is_a_global\/\" target=\"_blank\" rel=\"noopener\">diesem Artikel<\/a> Open-Source-KI als ein einen globalen Alptraum in Punkto Sicherheit und beruft sich auf Sicherheitsforscher. Die Verwerfungen rund um OpenClaw (siehe <a href=\"https:\/\/borncity.com\/blog\/2026\/02\/01\/clawdbot-motbot-openclaw-heisser-ai-scheiss-und-sicherheitsdesaster\/\" rel=\"bookmark\">Clawdbot \u2013 Moltbot \u2013 Openclaw: Hei\u00dfer AI-Schei\u00df und Sicherheitsdesaster<\/a>) lassen sich als Vorbote interpretieren.<\/li>\n<li>Und in <a href=\"https:\/\/www.theregister.com\/2026\/02\/09\/microsoft_one_prompt_attack\/\" target=\"_blank\" rel=\"noopener\">diesem Artikel<\/a> greift The Register einen Prompt-Angriff auf, mit dem Microsoft Sicherheitsforscher alle Sicherheitsmechanismen in LLMs aushebeln konnten.<\/li>\n<li>Der Cyberkriminologe Thomas-Gabriel R\u00fcdiger sieht in KI gro\u00dfe Risiken: Emotionale Abh\u00e4ngigkeit, aber auch kriminelle Manipulation k\u00f6nnen gef\u00e4hrlich sein. Das Ganze l\u00e4sst sich <a href=\"https:\/\/www.it-daily.net\/shortnews\/cyberexperte-ki-aufklarungskampagne\" target=\"_blank\" rel=\"noopener\">hier<\/a> nachlesen. The Register thematisiert <a href=\"https:\/\/www.theregister.com\/2026\/02\/12\/microsoft_ai_recommendation_poisoning\/\" target=\"_blank\" rel=\"noopener\">hier<\/a> Erkenntnisse von Microsoft, dass AI-Schaltfl\u00e4chen die Leute manipulieren k\u00f6nnen und falsche Antworten generieren.<\/li>\n<li>Ein Blog-Leser hat mich auf den NDR-Artikel\u00a0<a href=\"https:\/\/www.ndr.de\/kultur\/buch\/informatik-professorin-ki-kann-nichts-was-ich-nicht-besser-kann,kiprofessorin-100.html\" target=\"_blank\" rel=\"noopener\">Informatik-Professorin warnt vor Datenklau und Kontrolle durch KI<\/a> hingewiesen und auf <a href=\"https:\/\/ndr-podcast.ard-mcdn.de\/progressive\/2026\/0210\/AU-20260210-0826-1100.mp3\" target=\"_blank\" rel=\"noopener\">diesen Podcast<\/a> verlinkt. Die Professorin meint, dass KI im Alltag nichts zu suchen habe.<\/li>\n<li>Der Polizeichef der indischen Stadt Hyderabad mit 11 Millionen Einwohnern hat gefordert, dass KI-Agenten mit Ausweisen \u2013 oder zumindest deren digitalen Entsprechungen \u2013 ausgestattet werden. The Register hat das Ganze <a href=\"https:\/\/www.theregister.com\/2026\/02\/09\/asia_tech_news_roundup\/\" target=\"_blank\" rel=\"noopener\">in diesem Artikel<\/a> aufgegriffen.<\/li>\n<\/ul>\n<p>Geht man die Fundsplitter durch, finden sich nicht wirklich die von Firmen und Protagonisten viel beschworenen Vorteile. Sondern es tun sich Abgr\u00fcnde auf, die die gesamte KI-Entwicklung in Frage stellen. Scheint aber niemanden in der KI-Blase zu interessieren &#8211; und es bleibt die Frage, ob es \"bei Unkenrufen\" bleibt, oder ob wir auch da auf einen Crash zusteuern.<\/p>\n<p>Und als letzte Meldung: Microsoft will sich nun aus der Abh\u00e4ngigkeit von OpenAI (als Geldverbrennungsmaschine) l\u00f6sen und eigene AI-Modelle entwickeln. Zudem setzen die auch auf Antrophic. Dr. Windows hat es in <a href=\"https:\/\/www.drwindows.de\/news\/microsoft-ai-losloesung-von-openai-wird-beschleunigt-agent-visionen-gehen-weiter\" target=\"_blank\" rel=\"noopener\">diesem Artikel<\/a> aufgegriffen.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Heute noch einige Informationen aus dem Bereich AI. Analyst Miles Deutscher hat sich die Sicherheitsvorf\u00e4lle der letzten 12 Monate im AI-Bereich angesehen und schl\u00e4gt Alarm. Zwei KI-Entwickler sind die letzten Tage aus ihrem Job ausgeschieden. LLMs versagten bei Tests gravierend &hellip; <a href=\"https:\/\/borncity.com\/blog\/2026\/02\/14\/ai-sicherheitsvorfaelle-der-letzten-12-monate-ein-grund-zur-sorge\/\">Weiterlesen <span class=\"meta-nav\">&rarr;<\/span><\/a><\/p>\n","protected":false},"author":2,"featured_media":0,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[8625,426],"tags":[8382,4328],"class_list":["post-321552","post","type-post","status-publish","format-standard","hentry","category-ai","category-sicherheit","tag-ai","tag-sicherheit"],"_links":{"self":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/posts\/321552","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/comments?post=321552"}],"version-history":[{"count":8,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/posts\/321552\/revisions"}],"predecessor-version":[{"id":321564,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/posts\/321552\/revisions\/321564"}],"wp:attachment":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/media?parent=321552"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/categories?post=321552"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/tags?post=321552"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}