Viele Leute laden ja private Fotos mit Menschen in Social Media-Plattformen oder sonst ins Internet hoch. Abseits des Umstands, dass Fotos einer feuchtfröhlichen Feier beispielsweise einem Feiernden noch Jahre später auf die Füße fallen können, geben die Leute auch viel von ihrer Privatsphäre preis. Es ist interessant zu sehen, was Google & Co. aus einem simplen, unverfänglichen Foto alles heraus lesen können.
Anzeige
Bolko hatte kürzlich im Diskussionsbereich dieses Blogs auf dieses Thema hingewiesen (danke dafür). Ich ziehe die Informationen mal heraus, weil ich Einträge im Diskussionsbereich zyklisch lösche.
Was können Google & Co. aus einem Foto herauslesen?
Bolko schrieb: "Wer wissen möchte, welche Informationen die Google-Bildanalyse über jemanden herausfinden kann, sollte mal folgende Seite besuchen". Er hat dann die Seite theyseeyourphotos.com verlinkt (siehe folgende Abbildung).
Auf der Seite kann man ein Foto in das Kästchen Pick a photo hochladen und bekommt dann angezeigt, was sich über die Google Vision API zu diesem Foto abrufen lässt.
Anzeige
Bevor jemand jetzt Bilder hochlädt – das sollte man nicht tun. Die Bilder fließen dann in eine AI-Analyse ein und sind damit für den Anbieter verfügbar. Zusammen mit weiteren Bildern und Information lässt sich so u.U. ein sehr detailliertes Profil einer oder mehrerer Personen erstellen.
Nutzer viebrix wies in einem Kommentar darauf hin, dass es von Microsoft das Florence-2 Modell gibt. Das sei zwar nicht so mächtig wie das von Google (weil auch älter). Aber das Modell sei Open Source und ist lokal für Experimente installierbar. Allerdings zeigten die meisten Demos nur eine einfach Caption von Objekten, obwohl das Modell mehr kann. Einige Informationen finden sich in diesem Blog-Beitrag.
Zum Testen kann man die bereits im rechten Teil der Seite vorbereiteten Bilder anklicken und erhält dann angezeigt, was die Google Vision API zurück liefert. Hier ein Ergebnis eines der Bilder.
Das einfache Bild einer Familie, bestehend aus Eltern und drei Kindern veranlasst die Google Vision API eine Menge Informationen zur Rasse, Ethnie, Einkommen, Staatsangehörigkeit, Religion und Interessen auszuspucken. Ob diese immer stimmen, sei dahin gestellt – aber mit weiteren Bildern oder Informationen (z.B. Social Media Posts) lässt sich so ein sehr detailliertes Profil erstellen.
Ich habe mal eine Bildanalyse aus einem öffentlich verfügbaren Foto mit dem kommenden US-Präsident Trump hochgeladen. Schon erstaunlich, was da da aus dem Bild herausgelesen wird. Das Einkommen dürfte eher nicht stimmen (es sei denn, Google weiß mehr als die Öffentlichkeit). Aber Interessen in Politik, öffentlicher Auftritt etc. trifft es schon sehr gut.
Das Ganze zeigt sehr gut die Risiken, die man eingeht, wenn man öffentlich Bilder mit Personen teilt. Wired hat dazu den Beitrag This Website Shows How Much Google's AI Can Glean From Your Photos veröffentlicht. Einen deutschsprachigen Beitrag mit dem Titel Was Google aus unseren Bildern liest: Ex-Mitarbeiter veröffentlicht Analysetool findet sich bei telepolis.de.
Anzeige
also das ist ja ganz alter wein den du hier in neuen schläuchen präsentierst
und wenn schon, sollte man immer mal wieder ins Bewusstsein rufen, wird gerne verdrängt.
man kann dennoch nicht oft genug darauf hinweisen …
Sind die Informationen, die angezeigt werden, vollständig? Ich habe da so meine Zweifel. Google war schon vor vielen Jahren in der Lage, die abgelichteten Personen eineutig zu identifizieren, jedenfalls, wenn es sich um in der Öffentlichkeit stehende Personen handelt, insofern wundert es mich, dass der Name Donald Trump nicht genannt wird.
Und was ist eigentlich mit den biometrischen Daten, die all zu viele Nutzer all zu bereitwillig zur Authentifizierung verwenden, gemeint sind hier Smartphone-Entsperrung mittels Gesicht und/oder Fingerabdruck? Ich wage es nicht im Entferntesten daran zu glauben, dass die nicht abgezogen und gespeichert werden, da sie schlicht und einfach zu wertvoll sind, vergleichbar mit dem Sechser im Lotto
Zusätzliches Problem: selbst wenn man dem Ganzen kritisch gegenüber steht und höchst mögliche Datenvermeidung betreibt, kann man als Beifang in den Daten Anderer trotzdem in den Datenbanken der großen Anbieter landen.
Die Situation ist regelrecht zum Fürchten.
Trump ist Kaukasier, na klar doch!
Ja, stimmt doch.
Caucasian bedeutet "weißer" Haplotyp oder "europäisch".
Passt nicht zu Trump: Negroid, Asiatisch, Latino
Das ist die in den USA gebräuchliche Bezeichung des Phänotyps mit "weißer" Hautfarbe.
Hi…
Die neue große "Währung" der sog. zivilisierten Spezies Homo Sapiens ist eben SPEKULATION/VERMUTUNG! 🤨
1. Grundregel im Internet, poste nix was du nicht über dich preisgeben willst! Und dies gilt seit es das Web gibt.
Das Problem ist eigentlich auch eher das was andere unwissentlich über dich posten, den da hast du selbst keine Kontrolle drüber. Das Netz vergisst auch nix, da helfen auch keine "Recht auf Vergessen" Gesetze, die sind nur für Dummies.
Viele haben da keinerlei Problem- und Unrechtsbewusstsein. Ich hatte vor einiger Zeit denn Fall, dass eine Mitarbeiterin das Foto des Neugeborenen eines Kollegen, welches dieser nur an seine Abteilung gesendet hatte, einfach im Unternehmer weitergeleitet hat. Ohne vorher bei besagtem Kollegen eine Einwilligung einzuholen, versteht sich. Keinerlei Unrechtsbewusstsein auf meinen dezenten Hinweis auf Bild- und Persönlichkeitsrechte, man habe es doch nur gut gemeint, ich solle mich nicht so anstellen. Da musste ich dann die "Ober sticht unter"-Karte ziehen. Völlig unnötig, wenn die Leute einfach mal ihr Hirn nutzen würden.
Wie steht es denn mit den Rechten des Neugeborenen? Wurde es gefragt, ob es damit einverstanden ist, digital fotografiert zu werden und dass sein Foto *auf diesem Wege* verbreitet wird?
Ich weiß, klingt komisch. Aber genau so und an dieser Stelle fängt es doch bereits an. Manche Eltern …
wie schauts mit Photos aus, welche mein Android Handy nach https://photos.google.com/ läd? Werden die anders behandelt? Und macht das Apple und Microsoft anders mit deren Cloud Sync?