Freunde, ihr wisst doch sicherlich alle wie der Terminator seine Umwelt wahrnimmt? In einer Art Augmented Reality, sprich erweiterte Wirklichkeit, werden zu allen möglichen Dingen in der Umgebung Zusatzinfos direkt per «Head-Up-Display» (HUD) eingeblendet. Und jetzt kommts: Bald könnt auch Ihr so rumlaufen, wenn es nach Alessandro Acquisti und Ralph Gross von der Carnegie Mellon University geht.
Wie SPIEGEL Online in einem sehr lesenswerten Artikel berichtet, haben die Wissenschaftler mit Tools, die jeder frei kaufen und nutzen kann, eine Software programmiert, die den Bildern anonymer Accounts einer Datingplattform das jeweils passende Profil auf Facebook zuordnet. Samt echtem Namen, Interessen und vielen weiteren privaten Infos. Momentan arbeiten sie am passenden App, das ein aufgenommes Foto mit den frei zugänglichen Infos von Facebook abgleicht.
Derzeit experimentieren Acquisti und Gross mit einer Smartphone-Anwendung, die zu aufgenommenen Fotos von Unbekannten in Echtzeit Online-Identitäten zuordnet und Namen, Interessen, Vorlieben und derlei mehr anzeigt.
Die Forscher gehen davon aus, dass so etwas in naher Zukunft funktionieren und wohl auch für jedermann verfügbar sein wird. Derzeit reicht die bei Cloud-Diensten schnell abrufbare Rechenkraft nicht aus, um ohne räumliche Eingrenzung Identitäten per Gesichtserkennung zu suchen. Die notwendige Rechenzeit für den Abgleich eines Fotos mit den Profilbildern aller in Deutschland registrierten Facebook-Nutzer ist noch zu groß. Aber das sind lösbare Probleme: Die Mehrheit der Menschen, die in Hamburg die U-Bahn benutzen, wohnt wahrscheinlich auch in der Hansestadt. Daher könnte ein Suchender seine Recherche also auf die Stadt beschränken.
[…]
Die Algorithmen zur Gesichtserkennung werden immer besser, die Preise für Rechenzeit sinken und das Reservoir an frei zugänglichen Profilfotos und verknüpften persönlichen Details wächst. In zehn Jahren könnte es Kontaktlinsen geben, die unauffällig Digitalfotos der Umgebung mit Datenbanken abgleichen und Zusatzinformationen anzeigen, zum Beispiel über das Gegenüber in der U-Bahn?
[…]
Die Entwicklung ist nicht mehr umzukehren, schreiben Acquisti und Gross in einer Rohfassung ihres Ausblicks – Namen und Porträtfotos von Millionen Webnutzern sind längst verknüpft im Web. Es ist nur eine Frage der Zeit, dass wir mit der Analyse dieser Informationen mehr und mehr in der Offline-Welt konfrontiert werden.
Die Wissenschaftler schreiben: “Als Nutzer sozialer Netzwerke haben wir längst einer Datenbank mit De-facto-Real-Identitäten zugestimmt.”
Dank solcher Entwicklungen wirkt die Google-Street-View Debatte extrem lächerlich. Wieso sollte ich mir nur das Haus von aussen anschauen, wenn die Bewohner mich direkt ins Wohnzimmer einladen und aus freien Stücken privateste Details preisgeben?
Rich Cameron und Haris Amin haben bereits für Hackday 2011 eine solche App fürs iPhone programmiert und das nachfolgende Video zeigt bereits, wie das funktioniert. Ich bin dann mal bei Facebook und passe einmal mehr meine Privatssphäre-Einstellungen an…