Meta: KI verursacht Sicherheitsvorfall; Joggender Offizier verrät Flugzeugträger-Position

Stop - PixabayNoch eine kleine Zusammenfassung von Meldungen, die mir die Woche untergekommen sind. Bei Meta und Sears setzt man schwer auf künstliche Intelligenz, um die Mitarbeiter produktiver zu machen. Ein Meta-Mitarbeiter wurde von der KI bei seinen Arbeitsschritten unterstützt – und am Ende des Tages konnte jeder auf die Daten von Nutzern schauen, weil Zugriffsrechte falsch gesetzt wurden. Ähnliches wird von Search Home Service berichtet. Und ein Offizier hielt es für eine gute Idee auf einem Flugzeugträger zu joggen und seine Daten mit der Plattform Strava zu teilen. Die Welt konnte so verfolgen, wo sich das Schiff so befand. Kleiner Abriss von Sicherheitsmeldungen der letzten Tage.

Die Secure-Boot-Zertifikate laufen ab. Was sollen Admins tun? Kostenloses eBook » (Sponsored by IT Pro)

Die AI-Agenten-Hypotheken werden fällig

Unternehmen setzen ja verstärkt auf KI-Lösungen, um die Mitarbeiter produktiver zu machen. AI-Agenten sollen eigenständig Aufgaben übernehmen. Ich hatte hier im Blog ja mehrfach vor den Folgen gewarnt, denn die Firmen bauen technische Hypotheken auf, die irgendwann bedient werden müssen. Speziell bei AI-Agenten ist aus der Forschung bekannt, dass diese Sicherheitsvorkehrungen umgehen und ausdrückliche Anweisungen ignorieren. Die Agenten fälschen Zugangsdaten und führen ein Eigenleben. Fehlerquellen, die den Leuten nun auf die Füße fallen. Hier zwei aktuelle Informationssplitter aus diesem Bereich.

Meta und der Fail des AI-Agenten

Die Geschichte wurde die Woche nach einem Insider-Tipp öffentlich, ist aber im Original-Artikel nicht frei abrufbar. Daher hier eine Zusammenfassung des Sachverhalts aus nachfolgendem Tweet.

Meta AI-Fail

Ein Support-Mitarbeiter bei Meta wollte einer Frage in einem internen Forum des Unternehmens nachgehen. Dazu bat er, den für die Meta-Mitarbeiter zugreifbaren AI-Agenten die Frage aus einem internen Forum zu analysieren. Normalerweise geht jeder Mensch davon aus, dass der KI-Bot danach seine Analyse ausspuckt, der Support das Ergebnis bewertet und ggf. umsetzt oder umsetzen lässt.

Ich hatte hier im Blog aber schon häufiger von Fällen berichtet, wo AI-Bots ein Eigenleben entwickelten, und beispielsweise mal eben einen Satz Dateien löschten. Bei Meta war der AI-Agent nicht ganz so rigoros, aber trotzdem kreativ. Der Agent veröffentlichte ohne Erlaubnis eine Antwort, und gab dazu noch einen falschen Ratschlag.

Gut, das ist bekannt, eine KI wird ja mal halluzinieren dürfen, kann man nichts machen, ist halt so. Dazu beschäftigen "wir" ja (noch) Mitarbeiter, die das bewerten und ggf. korrigieren – heißt es ja allerorten. Der Meta-Mitarbeiter befolgte dummerweise die Ratschläge des KI-Agenten. Dabei machte der Mitarbeiter versehentlich riesige Datenmengen für Personen zugänglich, die diese nicht hätten sehen dürfen.

Der "Fehler" des KI-Agenten bewirkte, dass bei Meta zwei Stunden lang sensible Unternehmens- und Nutzerdaten für unbefugte Mitarbeiter zugänglich waren. Meta stufte den Vorfall als Schweregrad 1 ein.

Passt insofern, als es noch ein paar mehr solcher Vorfälle geben werden muss, bevor vielleicht eine vorsichtige Neubewertung erfolgt, wie viele Freiheiten man AI-Agenten zugestehen kann und wie der Mensch die Entscheidungsgewalt behält. Im Februar 2026 hatte ich im Beitrag Sammlung von KI-Splittern und -Torheiten (Feb. 2026) berichtet, wie Summer Yue, immerhin Direktorin für AI-Sicherheit bei Meta Superintelligence, OpenClaw bei sich getestet hat. Sie gab dem AI-Agenten Zugriff auf ihr GMail-Postfach , so dass dieser dann fleißig aufgeräumt und den gesamten Posteingang gelöscht hat, ohne dabei, wie angewiesen, vor jeder Aktion eine Bestätigung einzuholen.

AI-Bot verursacht Datenleck bei Sears Home Services

Sears Home Services ist ein großer Anbieter von Reparaturdienstleistungen für Haushaltsgeräte in den Vereinigten Staaten, der jährlich über sieben Millionen Reparaturen durchführt. Transformco, das Unternehmen, dem Sears gehört, verzeichnet einen Umsatz von rund 80 Millionen US-Dollar. Auch bei Sears Home Services gab es eine fette Datenpanne, verursacht durch einen AI-Agenten. Cybernews hat es beispielsweise in diesem Artikel beschrieben.

AI-Bot verursacht Datenleck

Sicherheitsforscher Jeremiah Fowler stieß im Internet auf eine ungesicherte Datenbank, die rund 3,7 Millionen Datensätze, darunter Chat-Protokolle, Audioaufnahmen und Texttranskriptionen von Kundeninteraktionen, aus den Jahren 2024 bis 2026 enthielt. Fowler schreibt, dass die per Datenbank offengelegten Dateien auf benutzte KI-Systeme mit den Bezeichnungen "Samantha", ein Chatbot für den Kundenkontakt, und "KAIros", eine umfassendere KI-Plattform, die für die Terminplanung und operative Unterstützung genutzt wird, hinweisen.

Die Daten enthielten persönliche Kundendaten wie Name, Adresse, E-Mail-Adresse, Telefonnummer etc. Fowler meldete den Vorfall an Transformco, woraufhin das Unternehmen am folgenden Tag den öffentlichen Zugriff auf die Datenbanken sperrte. Fowler erhielt die Bestätigung, dass die Meldung intern weitergeleitet worden war, doch weitere Rückmeldungen blieben aus. Unklar ist weiterhin, von wem und weshalb die Datenbank per Internet erreichbar war, ob die KI-Bots nur ihre Log-Informationen in die Datenbank schrieben oder diese auch verwalteten und ob Unbefugte Dritte auf die Daten zugegriffen haben.

Joggender Militär verrät Position von Flugzeugträger

Durch den Iran-Konflikt werden ja einige Flugzeugträger im Mittelmeer und in der Golf-Region verlegt. Die Besatzungen sind Wochen und Monate auf See und versuchen sich fit zu halten. Die Woche bin ich dann auf nachfolgenden Post gestoßen, den ich der Leserschaft nicht vorenthalten wollte.

Leak der Positionsdaten des Flugzeugträgers

Frankreich hat seinen Flugzeugträger Charles de Gaulle ins östliche Mittelmeer beordert.  Journalisten des französischen Mediums Le Monde waren in der Lage, über die irrtümlich im Internet auf der Plattform Strava öffentlich einsehbaren Daten die Position des Flugzeugträgers zu verfolgen. Ein Offizier trug beim Joggen auf dem Flugzeugträger wohl ein Fitness-Gadget, welches die Daten mit der Plattform Strava teilte. Und dort waren die Daten auf "öffentlich einsehbar" gesetzt. Ist nicht der erste Fall, in dem Militärs ihre Position über Strava verrieten. Ein englischsprachiger Artikel mit Details findet sich hier.

Dieser Beitrag wurde unter AI, Internet, Sicherheit, Wearables abgelegt und mit , , , verschlagwortet. Setze ein Lesezeichen auf den Permalink.

Ein Kommentar zu Meta: KI verursacht Sicherheitsvorfall; Joggender Offizier verrät Flugzeugträger-Position

  1. JG sagt:

    Vor Jahren gab es die Meldung das man anhand Fitness-Tracker/Smartwatches Soldaten identifizieren konnte (heise.de Titel: Fitnesstracker: Strava-Aktivitätenkarte legt Militärbasen und Soldaten-Infos in aller Welt offen).

    Der Russische KGB-Nachwuchs stellten sogar Aufnahmen ins Internet von ihrer „Feier" (sueddeutsche.de Titel: Russlands Nachwuchs-Geheimagenten blamieren sich im Netz).

    Die Leute sind heute einfach doof. Besser wird das nicht werden.

Antworte auf den Kommentar von JG Antwort abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Hinweis: Bitte beachtet die Regeln zum Kommentieren im Blog (Erstkommentare und Verlinktes landet in der Moderation, gebe ich alle paar Stunden frei, SEO-Posts/SPAM lösche ich rigoros. Kommentare abseits des Themas bitte unter Diskussion. Kommentare, die gegen die Regeln verstoßen, werden rigoros gelöscht.

Du findest den Blog gut, hast aber Werbung geblockt? Du kannst diesen Blog auch durch eine Spende unterstützen.