Ein als „schwarzer Steve Irwin“ gefeierter Social-Media-Star entpuppt sich als reine KI-Kreation – und löst eine globale Debatte über kulturelle Aneignung und digitale Identitäten aus. Der Fall zeigt, wie täuschend echt künstliche Influencer mittlerweile sein können.
Ein Wildtier-Experte, der nie existierte
Monatelang fesselte „Bush Legend“ sein Publikum auf Instagram und Facebook. Fast 186.000 Follower sahen einem charismatischen Aborigine-Mann mit Locken und Khaki-Kleidung zu, wie er über giftige Schlangen und seltene Papageien aufklärte. Die Community feierte ihn als „Black Steve Irwin“. Doch diese Woche kam die Enthüllung: Die Figur ist komplett künstlich, ein KI-generierter Avatar. Betrieben wird das Projekt von einem Südafrikaner, der in Neuseeland lebt und keine Verbindung zu indigenen Gemeinschaften hat.
Die Täuschung war perfekt. Die Stimme des Avatars klang für viele wie eine Mischung aus dem verstorbenen Tierfilmer Steve Irwin und einem bekannten australischen Gärtner. Die Begegnungen mit der Natur waren visuell überzeugend – und komplett erfunden. Nach der Aufdeckung reagierten viele Follower bestürzt. Sie hatten geglaubt, einen aufstrebenden indigenen Artenschützer zu unterstützen.
Passend zum Thema KI-Transparenz: Seit die EU-KI-Verordnung in Kraft ist, drohen Unternehmen bei fehlender Kennzeichnung und unzureichender Dokumentation erhebliche Bußgelder und Nachbesserungsauflagen. Dieses kostenlose E-Book erklärt praxisnah, wie Sie Risikoklassen bestimmen, Kennzeichnungspflichten erfüllen und notwendige Dokumentationen aufbauen – speziell für Entwickler, Plattformbetreiber und Content-Produzenten. Enthalten sind klare Checklisten und Umsetzungsschritte, mit denen Sie schnell prüfen können, ob Ihr KI-Projekt compliant ist. Kostenloses E-Book zur EU-KI-Verordnung herunterladen
Der Vorwurf: „Digital Blackface“
Die Enthüllung entfachte sofort eine Debatte über „Digital Blackface“. Experten verstehen darunter die Praxis, dass sich nicht-indigene oder nicht-schwarze Personen mit digitalen Mitteln eine entsprechende Identität aneignen. Tamika Worrell, Dozentin für kritische Indigenen-Studien, sieht in „Bush Legend“ ein klares Beispiel. Der Avatar wirke wie eine Karikatur, die komplexe kulturelle Identitäten zu Stereotypen verflache – und das zum Zweck der Unterhaltung und Monetarisierung.
Die Anwältin Dr. Terri Janke, Expertin für geistiges Eigentum indigener Völker, betont die ethischen Verstöße. KI könne zwar ethisch genutzt werden, um Geschichten der First Nations zu erzählen. Das setze aber strenge Protokolle voraus, die Zustimmung und Kontrolle durch die Gemeinschaften garantieren. Die unbefugte Nachahmung einer indigenen Identität gleiche hier einem Diebstahl kulturellen Eigentums. Echte Aborigine-Ranger und Content-Schaffende würden um Aufmerksamkeit und Einnahmen gebracht.
Meta in der Kritik – und ein schweigender Schöpfer
Der Fall wirft auch Fragen an die Plattformen auf. Wie konnte ein solcher Account monatelang ohne Kennzeichnung als KI-Inhalt operieren? Meta, Mutterkonzern von Instagram und Facebook, hat zwar Kennzeichnungspflichten eingeführt. „Bush Legend“ zeigt jedoch die Grenzen der Durchsetzung. Für normale Nutzer war der Avatar nicht von einem echten Menschen zu unterscheiden.
Der Schöpfer des Accounts hüllt sich in Schweigen. Medienanfragen blieben unbeantwortet. Recherchen legen nahe, dass die Strategie bewusst gewechselt wurde: Ursprünglich betrieb die Seite satirische KI-Nachrichten, bevor sie im Oktober 2025 zum Wildtier-Format „Bush Legend“ umschwenkte. Eine kalkulierte Entscheidung, um von der hohen Engagement-Rate charismatischer, menschlicher Persönlichkeiten zu profitieren.
KI-Influencer: Eine neue Stufe der Täuschung
Der Skandal markiert eine neue Eskalationsstufe für KI-Influencer. Anders als stilisiert-fiktive Avatare wie Lil Miquela wurde „Bush Legend“ mit einem Realismus präsentiert, der aktiv über seine Menschlichkeit und Ethnizität täuschte. Analysten warnen vor einem bedenklichen Trend: Marginalisierte Identitäten werden von denen vermarktet, die die dahinterstehenden Lebensrealitäten nicht teilen.
Der Begriff „kulturelle Verflachung“ beschreibt das Phänomen: KI-Modelle, die auf riesigen Datensätzen trainiert sind, greifen bei der Generierung bestimmter ethnischer Gruppen oft auf stereotype Darstellungen zurück. Diese Stereotype werden dann zur „Maske“, mit der sich kulturelle Ästhetik monetarisieren lässt – ohne die systemischen Herausforderungen zu tragen, denen echte Mitglieder dieser Gemeinschaften ausgesetzt sind.
Was folgt aus dem Skandal?
Die Affäre dürfte Forderungen nach schärferen KI-Transparenzgesetzen befeuern. Juristen erwarten, dass der Fall als Katalysator für neue Regeln wirken könnte, die die kommerzielle Nachahmung realistischer menschlicher Identitäten unterbinden. Soziale Plattformen stehen unter Druck, populäre Accounts künftig strenger auf Authentizität zu überprüfen.
Indigenen-Organisationen gewinnt eine weitere Forderung an Bedeutung: „Data Sovereignty“, also die Datenhoheit. Sie soll sicherstellen, dass First Nations die Kontrolle darüber behalten, wie ihre Abbilder und ihr kulturelles Wissen von KI-Systemen genutzt werden. Die Glaubwürdigkeit von „Bush Legend“ ist zwar beschädigt. Doch die Ökonomie der KI-generierten Inhalte wächst ungebremst weiter. Die digitale Welt muss lernen, mit den verschwimmenden Grenzen zwischen Realität, Darstellung und Ausbeutung umzugehen.
PS: Die EU-KI-Verordnung verlangt klare Kennzeichnung von KI-Inhalten, Risikobewertungen und nachvollziehbare Dokumentation – Themen, die in diesem Skandal zentral sind. Das kostenlose Umsetzungs-E-Book fasst Fristen, Pflichten und konkrete Handlungsschritte kompakt zusammen und bietet Checklisten für Entwickler und Plattformbetreiber, um Ihr KI-Angebot rechtssicher aufzustellen. Jetzt kostenlosen KI-Verordnungs-Leitfaden sichern




