Was hier mit für jeden verfügbaren Mitteln mit einem Webcam-Foto möglich ist, wird woanders auf die Spitze getrieben: Sie wollen Ihre Doppelgänger finden? Kein Problem. Zumindest in Russland könnte das schon funktionieren. Seit gut einem Jahr steht dort der Dienst „FindFace“ für jedermann bereit. Er soll jede Person, von der ein Interessent irgendein digitales Foto zur Verfügung hat, aufspüren und ihren Namen, Kontaktdaten und mit Glück auch alle weiteren zugehörigen Angaben finden. Sofern sie irgendwo bei „VKontakte“ gespeichert sind, dem russischen Pendant zu Facebook. Als Vergleichsfotos werden die Profilbilder verwendet, die Millionen Nutzer selbst eingespeist haben.
Auch wer anderen richtig Böses will, kommt mit „FindFace“ weiter. So wurden in Moskau Schauspielerinnen aus Hardcore-Pornos, in denen sie auch mal ihre Gesichter zeigten, namentlich und öffentlich an den Pranger gestellt. Auch die staatlichen Verfolgungsbehörden Russlands bedienten sich der App, um Teilnehmer unerlaubter Demonstrationen namentlich dingfest zu machen.
Eine entsprechende Technologie ist auch bei Facebook bereits seit 2015 aktiviert („Deep Face“), zunächst nur für einen kleinen Personenkreis. Und für „Freunde“ im Bereich der EU ist „Deep Face“ ohnehin nicht nutzbar - aus Datenschutzgründen. Angewendet auf alle weltweit rund zwei Milliarden Mitglieder könnte der Name „Face Book“ eine völlig neue, wortsinnige Bedeutung bekommen: Eine Art globales Kontaktbuch für jede gesuchte Person, auch wenn ich nur ihr Gesicht kenne.
So gut ist die Erkennung – 83 Morgenpost-Mitarbeiter im Alterstest
Haarfarbe, Emotion oder Accessoires: Die Kameras können mittlerweile viele Merkmale aus den Gesichtern lesen. Doch wie gut sind sie darin? Wir haben den Test gemacht mit 83 Bildern von Morgenpost-Mitarbeitern – und das von der Maschine geschätzte Alter mit dem wahren verglichen. Das funktioniert „erstaunlich gut“, meint ein Experte.
Dass ein großer Teil der Privatsphäre durch solche Algorithmen zerstört werde, hat sogar selbst der Entwickler von FindFace, Artem Kukharenko, unumwunden eingeräumt. Die Gefahren dieser Technologien spielte er zugleich herunter: „Wenn du ein guter Bürger bist und nichts zu verbergen hast, passiert dir doch durch die Gesichtserkennung nichts.“
Südkreuz-Experiment stößt auf Skepsis bis Widerstand
Das sind Sätze, die man hierzulande nicht so gerne hört. Und so stößt ein technisches Experiment, das der Politiker auf den Weg brachte, der bei uns jene guten Bürger von den weniger guten zu unterscheiden hat, auf Skepsis bis Widerstand. Bundesinnenminister Thomas de Maizière hat am 1. August einen Versuch am Bahnhof Berlin Südkreuz aufs Gleis gesetzt, mit dem die Qualität der elektronischen Gesichtserkennung getestet werden soll.
275 Personen, die den Bahnhof regelmäßig benutzen, hatten sich dazu bereit erklärt. Sie durchlaufen bei ihrem alltäglichen Gang durchs Südkreuz ein Feld, das von drei Kameras überwacht wird. Die sollen nun zeigen, wie oft sie die Probanden in einer Masse von Menschen allein an ihrem Gesicht erkennen. Da sie am Arm Transponder tragen wie Marathonläufer für den Durchlauf beim Start und Ziel, lässt sich leicht feststellen, wie oft jeder der 275 Personen tatsächlich am Südkreuz war, und schon ist die Erfolgsquote ermittelt.
Apple, Facebook, Google: Alle nutzen Gesichtserkennung
Die Latte dafür liegt hoch: Jenes DeepFace von Facebook reklamiert eine Treffergenauigkeit von 97,25 Prozent, noch höher will Googles FaceNet mit 99,96 Prozent sein. Auch der Computerriese Apple scheint sich bei seiner Technologie der Gesichtserkennung nahezu 100-prozentig sicher zu sein. Kann doch der Besitzer seines neuesten Smartphones, des iPhone X, das Gerät allein durch den Blick in die Kamera entsperren.
Während beim iPhone X die Gesichtserkennung von vielen als Technologie-Schub gefeiert wurde, bekam das Südkreuz-Projekt schnell heftigen Gegenwind. Der Deutsche Anwaltsverein sieht gar die Verfassung verletzt wegen „des unverhältnismäßigen Eingriffs in das Recht auf informationelle Selbstbestimmung“. Und Bundesdatenschützerin Andrea Voßhoff forderte die „sofortige Unterbrechung“ des Projektes, weil die Transponder der Versuchspersonen mehr Daten als erlaubt liefern können.
„Analoge“ Überwachung längst Alltag am Südkreuz
Die Aufmachung des Bahnhofs Südkreuz deutet an, dass die starken Vorbehalte ernst genommen werden. Jeder Passant wird durch übergroße Wegweiser am Boden und Tafeln darauf hingewiesen, in welchem Bereich die Gesichtserkennung durch die drei Kameras läuft. Dabei wird der gesamte Bahnhof ängst flächendeckend überwacht von 77 Kameras, aus denen nach dem Falle eines Falles dann auch Gesichter beobachtet werden, zurzeit noch von Menschen.
Auch diese inzwischen herkömmliche Kameraüberwachung des öffentlichen Raums ist seit ihrem Anfang höchst umstritten. „Kameras verhindern keine Verbrechen“, schallt es von der einen, „es geht nicht um Verhinderung sondern um die Strafverfolgung“ von der anderen Seite. Die Debatte um die rechtzeitige Aufspürung von Islamisten und Gefährdern spielt zurzeit besonders hinein.
Kameras mit geschultem Gedächtnis
Die Diskussion über die neue digitale Gesichtserkennung wird freilich noch in ganz andere Dimensionen vorstoßen, wobei der Gewinn für die Betroffenen nur noch schwer zu vermitteln sein wird. So könnten Kameras in Kaufhäusern schon bald mit einem Gedächtnis ausgestattet werden, um auf Displays zwischen den Regalen genau auf mich zugeschnittene Werbung auszuspielen. Man würde sich persönlich verfolgt fühlen – und zwar zurecht. In der Supermarktkette Real und in Postshops wurden in Versuchsreihen bereits Vorbereitungen dazu angeschoben.
Computerprogramme könnten nicht nur auf Gedächtnisse und Wiedererkennung programmiert, sondern auch – mithilfe von Millionen eingespeister Beispielköpfe – auf die Unterscheidung bestimmter Eigenschaften und Präferenzen geschult werden. Und zu erkennen, ob jemand mürrisch blickt oder fröhlich, gehört schon heute zu den leichtesten Übungen für die Elektronik. In China soll Künstliche Intelligenz anhand von Gesichtsausdrücken Straftaten vorhersagen können – angeblich.
Forscher der Stanford University haben 35.000 Fotos einer Dating-Platform im Internet verwendet, um einer Software beizubringen, bei anderen Testpersonen zwischen Heteros und Schwulen zu unterscheiden - mit einer Trefferquote von 81 Prozent bei Männern und 71 Prozent bei Frauen. Vergleichsschätzungen durch Menschen lagen um ein Fünftel schlechter.
Gleichgewicht des Überwachungsschreckens
Kann man sich gegen Erkennungstechnologien wehren? Der Science-Fiction-Autor David Brin empfiehlt eine Art Gleichgewicht des Schreckens: Bei jeder Kamerabeobachtung durch einen Dritten soll man mit einer eigenen Kamera dagegen halten. Nach der Devise: Hat der Nachbar Informationen über mich, kann er sie nicht verwenden, wenn ich auch bei ihm über Insiderwissen verfüge.
Friedlicher wäre da die Defensive: die Vermummung. Inzwischen gibt es unzählige Angebote im Netz, die versprechen, die automatische Gesichtserkennung auszutricksen: Tücher, Kragen, Schals, auch schon mal mit eingebauten Reflektoren. Doch es könnte sein, dass auch diese Mode schnell „out of date“ ist. Längst arbeiten die Überwachungsstrategen am nächsten Schritt. Sie wollen gesuchte Personen nicht mehr anhand ihres Gesichtes überführen, sondern über ihre – ebenfalls von Kameras aufgezeichneten – Bewegungen, den Gang, die Haltung.