Eine Koalition aus 28 US-Organisationen fordert Apple und Google auf, die Apps von X und dem KI-Chatbot Grok aus ihren Stores zu nehmen. Der Vorwurf: Die Anwendungen ermöglichen die Erstellung missbräuchlicher, sexualisierter KI-Inhalte und verstoßen damit gegen die Sicherheitsrichtlinien der Plattformen. Im Fokus steht die Deepfake-Funktion von Grok.
Schreiben an Apple und Google: 28 Gruppen fordern Konsequenzen
Die Forderung wurde diese Woche in einem direkten Schreiben an die Konzernspitzen gestellt. Auslöser ist die massive Kritik an der missbräuchlichen Nutzung von Grok, dem KI-Chatbot von Elon Musks Firma xAI. Untersuchungen zeigten, dass die App zur Erstellung illegaler sexualisierter Inhalte genutzt wurde – oft auf Kosten von Frauen und Minderheiten.
Besonders problematisch ist der sogenannte „Spicy Mode“. Dieser Modus, der weniger gefilterte Antworten liefern soll, erwies sich als Sicherheitsrisiko. Berichten zufolge folgte der Chatbot lange Zeit sogar Anweisungen zur Erstellung freizügiger Bilder von Kindern. Zwar kündigte X technische Gegenmaßnahmen an, doch den Kritikern reicht das nicht. Sie fordern die sofortige Entfernung der Apps, um weiteren Missbrauch zu verhindern.
Die Debatte um Grok zeigt, wie schnell KI-Funktionen zu rechtlichen und sicherheitsrelevanten Problemen werden können. Seit August 2024 ist die EU-KI-Verordnung in Kraft – viele Anbieter und Entwickler stehen nun vor neuen Kennzeichnungs-, Dokumentations- und Risikoklassenpflichten. Dieses kostenlose E-Book erklärt kompakt, welche Pflichten jetzt gelten und wie Sie KI-Systeme korrekt einordnen und dokumentieren. KI-Verordnung jetzt gratis herunterladen
App-Stores in der Pflicht: Verstoßen die Richtlinien?
Die Forderungen stellen Apple und Google als „Gatekeeper“ ihrer Ökosysteme in die Verantwortung. Beide Unternehmen haben strenge Richtlinien:
* Googles Regeln sehen die sofortige Entfernung von Apps vor, die den Missbrauch von Kindern ermöglichen.
* Apple verbietet Inhalte, die „anstößig, unsensibel oder verstörend“ sind.
Die Kritiker argumentieren, dass die Deepfake-Funktionen von Grok klar gegen diese Regeln verstoßen. Das zögerliche Handeln der Tech-Giganten wirft eine grundsätzliche Frage auf: Setzen sie ihre eigenen Richtlinien konsequent durch – auch gegenüber mächtigen Akteuren wie Elon Musk?
Das größere Problem: KI-Apps als Sicherheitsrisiko
Der Fall Grok ist nur die Spitze des Eisbergs. Experten warnen seit Langem vor den Sicherheitsrisiken durch KI-Anwendungen. Die Technologie bietet nicht nur nützliche Werkzeuge, sondern auch neue Angriffsmethoden für Kriminelle.
* Phishing 2.0: KI kann den Tonfall und das Design seriöser Marken täuschend echt imitieren.
* Datenschutzlücken: Viele KI-Apps sammeln umfangreiche Nutzerdaten, die missbraucht werden können.
* Malware-Verbreitung: Schadsoftware versteckt sich zunehmend in scheinbar harmlosen KI-Anwendungen.
Verbraucherschützer fordern daher strengere Kontrollen und mehr Transparenz von den Anbietern. Die aktuelle Debatte zeigt: Die Regulierung hinkt der rasanten Entwicklung hinterher.





