Direkt zum Seiteninhalt springen

Wählen gehen könnte so einfach sein: Rein in die KI-Wahlkabine, Vorhang zu, kurz in die Kamera lächeln und schon zeigt der Bildschirm, an welche Partei die Stimme ging. Die simulierte Wahl per Gesichtserkennung in der KI-Installation »Smile to Vote« dauert nicht mal eine Minute und hinterlässt Störgefühle: Sieht so die Zukunft der Demokratie aus?

Die KI-Wahlkabine wurde von Alexander Peterhänsel, Professor für Visual Computing an der Ostbayerischen Technischen Hochschule Amberg als künstlerisch-wissenschaftliches Forschungsprojekt entwickelt, das zum Nachdenken anregen soll: Wie viel Freiheit sind wir bereit, für Bequemlichkeit aufzugeben? Und ist es überhaupt eine gute Idee, aus dem Aussehen eines Menschen auf seine Persönlichkeit und sein mögliches Verhalten zu schließen? 

Alexander Peterhänsel und sein Team haben in diesem Experiment die KI darauf trainiert, bestimmte Muster in der Physiognomie zu erkennen und daraus abzuleiten, welche charakteristischen Gesichtszüge möglicherweise mit einer bestimmten Parteienpräferenz einhergehen. Als Trainingsdaten dienten Bilder von echten Politikern und Politikerinnen aus deutschen Parlamenten. 

Mit der KI-Wahlkabine »Smile to Vote«, die ab sofort bei uns im Forum für Künstliche Intelligenz erlebt werden kann, ist ein fiktives gleichnamiges Start-up verknüpft, das auf seiner Website dafür wirbt, Wahlvorgänge in Zukunft zu automatisieren. 

Utopie oder Albtraum? Wir freuen uns darauf, mit Ihnen darüber zu sprechen!

Hintergrund: »smile to vote - political physiognomy analytics«

Gesichtserkennung wird derzeit großflächig für den Massenmarkt bereitgestellt. Die mächtige Technologie ist zumeist in praktische Hilfsanwendungen implementiert, die uns alltägliche Aufgaben erleichtern sollen. Seit 2017 liefert zum Beispiel der IT-Konzern Apple seine Smartphones mit einer Technologie namens »Face ID« aus. »Face ID« erstellt mittels Kameras und Tiefensensoren hochauflösende biometrische Datensätze der Gesichter seiner Nutzer. Apple bietet den Usern an, sich mit ihren biometrischen Gesichtsdaten für Bezahlprozesse auf ihren iPhones zu authentifizieren1.

Ganz ähnlich ist es schon seit einiger Zeit in China möglich, durch bloßen Blick in eine Kamera zu bezahlen. Ebenfalls 2017 wurde das Gesichtserkennungssystem für Bezahlprozesse »smile to pay« von Alibaba in China bereitgestellt2. Physiognomisches Scanning wurde so zum Bestandteil hipper Lifestyle-Produkte.

Machine-Learning-Algorithmen ist es möglich, in Datensätzen minimalste statistische Anomalien unterhalb der menschlichen Wahrnehmungsschwelle zu erkennen3. Sie sind daher in der Lage, visuelle Informationen in einer Weise zu interpretieren, die wir mit menschlichen kognitiven Fähigkeiten nicht nachvollziehen können. Yilun Wang und Michal Kosinski von der Universität Stanford haben etwa gezeigt, dass Computer-Vision-Systeme in der Lage sind, die sexuelle Orientierung einer Person aus deren Gesichtszügen herauszulesen.4

Aufbauend auf der Methode von Wang und Kosinski (2017) misst die smile to vote-Wahlkabine mittels KI-basierter Computer-Vision-Analyse die Gesichtsmerkmale einer Person und gleicht deren Profil mit Photo-Datensätzen ab, die nach politischer Gesinnung klassifiziert sind5. Durch die Verwendung eines solchen neuronalen Netzes, welches mit Photos von Menschen trainiert wurde, deren Parteizugehörigkeit zweifelsfrei ist, könnte es unter Umständen möglich werden, in Echtzeit die politische Gesinnung aus dem Gesicht jeder Person, die von der Kamera erfasst wird, mit prozentualer Wahrscheinlichkeit auszulesen.

Datenschutz-Hinweis: Es werden von Benutzerinnen und Benutzern dieser Wahlkabine keinerlei personenbezogene Daten gespeichert.

Fußnoten

1 www.apple.com/newsroom/2017/09/the-future-is-here-iphone-x/, zuletzt abgerufen Jan 20, 2018

2 www.cnbc.com/2017/09/04/alibaba-launches-smile-to-pay-facial-recognition-system-at-kfc-china.html, zuletzt abgerufen April 15, 2018

3 vgl. Kosinski, M. & Stillwell, D. & Graepel, T. (2013). Private traits and attributes are predictable from digital records of human behavior, Proceedings of the National Academy of Sciences of the United States of America

4 vgl. Wang, Y., & Kosinski, M. (2017, Oct 16). Deep neural networks are more accurate than humans at detecting sexual orientation from facial images.Retrieved Jan 20, 2018 from osf.io/zn79k, (in press) Journal of Personality and Social Psychology

5 Als Datensatz für das Training der Smile to Vote - KI wurden die Photos aller derzeitigen Abgeordneten des Deutschen Bundestages herangezogen, klassifiziert nach Parteizugehörigkeit. Die Photos können allesamt ohne Zugangsbeschränkungen im Internet abgerufen werden (https://www.bundestag.de/abgeordnete).