Gesichtserkennung zählt zu den zuverlässigsten Methoden zur Identifizierung und Authentifizierung von Personen. Sie wird heute auch eingesetzt, um emotionale Zustände zu analysieren, Gesundheitsmuster zu erkennen und sogar bestimmte Verhaltensweisen vorherzusagen.
Gesichtserkennung ist eine probabilistische Technologie, die Personen anhand ihrer Gesichtszüge automatisch erkennt. Sie kann ein menschliches Gesicht in einem Bild oder Video lokalisieren, feststellen, ob das Gesicht auf zwei Bildern derselben Person gehört, oder in einer großen Bilddatenbank nach einer Übereinstimmung suchen.
Obwohl die Technologie bereits vor fast 60 Jahren entstand, sind ihre Möglichkeiten im letzten Jahrzehnt exponentiell gewachsen. Verbesserungen in der künstlichen Intelligenz und in Deep-Learning-Netzwerken haben sowohl bei statischen Bildern als auch bei Echtzeitvideos erhebliche Fortschritte ermöglicht.
Gesichtserkennung dient heute einer Vielzahl von Zwecken in der Wirtschaft und der öffentlichen Sicherheit, einschließlich Polizeieinsätzen. Gängige Einsatzfelder sind Grenzkontrollen, Reisen, Einzelhandel, Gastgewerbe und Bankwesen.
Darüber hinaus stellt Gesichtserkennung eine wesentliche Sicherheitsebene in Smartphones und Zahlungs-Apps dar. Sie spielt eine immer wichtigere Rolle bei der Gewährung des kontaktlosen Zugangs zu Gebäuden und der Verbesserung des Raummanagements.
Unser Gesicht dient jedoch nicht nur der Identifizierung. Es wird auch zu einer Quelle zutiefst persönlicher Daten, die Aufschluss über unsere Gefühle, unsere Gesundheit und sogar unsere politischen Vorlieben geben.
Emotionen erkennen, Verhalten vorhersagen

Emotionserkennung ist eine Technologie, die menschliche Gefühle anhand von Quellen wie Bildern und Videos analysiert. Sie ist Teil einer breiteren Gruppe von Technologien, die als Affective Computing bekannt sind – ein multidisziplinäres Feld, das erforscht, wie Computer mithilfe künstlicher Intelligenzmodelle Emotionen und Stimmungen erkennen und interpretieren können.
Durch Training mit großen, kategorisierten Datensätzen lernen diese Algorithmen, Emotionen mit ihren äußeren Ausdrucksformen zu verknüpfen. In Kombination mit Kontextfaktoren und physiologischen Signalen wie Herzfrequenz, Atemmuster oder Hautleitfähigkeit können die Systeme komplexe Emotionen erkennen und sogar Persönlichkeitsprofile erstellen, um Verhalten vorherzusagen.
Hilfe bei psychischen Diagnosen

Die Kombination aus KI und Gesichtserkennung wird im Gesundheitswesen bereits eingesetzt, um das medizinische Datenmanagement zu optimieren und Ärzte bei der Erstellung präziserer Diagnosen zu unterstützen. Insbesondere bietet sie großes Potenzial für die Erkennung psychischer Erkrankungen.
Ein Beispiel dafür ist MoodCapture, eine Smartphone-App, die von einem Forschungsteam des Dartmouth College in den USA entwickelt wurde. Die vom US-Heimatschutzministerium unterstützte App analysiert Gesichtsausdrücke und Umgebungsreize, um Symptome einer Depression zu identifizieren. Sie verbindet sich mit der Kamera des Smartphones und nimmt mehrere Bilder des Nutzers auf, um nach klinischen Anzeichen für depressive Episoden zu suchen. Sie kann sogar den Schweregrad der Erkrankung einschätzen.
Das Modell basiert auf einem Datensatz von über 125.000 Bildern von 177 Teilnehmern mit der Diagnose schwerer Depression. Dadurch lernt die App, depressive von nicht-depressiven Zuständen zu unterscheiden. Laut den Entwicklern erreicht die App derzeit eine Genauigkeit von 75 %.
Früherkennung genetischer und koronarer Erkrankungen

Eine weitere App des Bostoner Unternehmens FDNA analysiert Gesichtsmerkmale, um mögliche genetische Erkrankungen zu erkennen. Das Unternehmen nutzte zunächst einen Algorithmus, der anhand von über 17.000 Bildern diagnostizierter Fälle aus 216 verschiedenen Syndromen trainiert wurde. Die neueste Version umfasst mittlerweile über 150.000 Bilder in ihrer Datenbank und kann ein breites Spektrum genetischer Erkrankungen erkennen.
Diese Algorithmen können auch zur Beurteilung des Risikos einer koronaren Herzkrankheit eingesetzt werden, da bestimmte Gesichtsmerkmale mit dieser Erkrankung in Verbindung gebracht werden. In einer Studie in neun chinesischen Krankenhäusern wurden Patienten einer CT der Koronararterien unterzogen, um ein Deep-Learning-Modell zu trainieren und zu validieren. Das Modell wurde entwickelt, um Anzeichen von Herzerkrankungen anhand von Gesichtsfotos zu erkennen. Nach der Trainings- und Validierungsphase erreichte das Modell eine diagnostische Genauigkeit von 80 %.
Die Gesichtsanalyse erstreckt sich auch auf die Dermatologie. Mit der App Legit.Health können Nutzer Bilder von Hautläsionen analysieren, interpretieren und medizinischem Fachpersonal nützliche Erkenntnisse zur Unterstützung der Diagnose liefern.
Kann man an Ihrem Gesicht erkennen, wen Sie wählen?

Es ist überraschend, dass Gesichtserkennungstechnologie Anzeichen einer Depression präzise erkennen kann. Noch überraschender ist jedoch, dass sie auch die politische Orientierung vorhersagen kann. Forscher der Stanford University behaupten, dass KI die politische Ausrichtung einer Person durch die Analyse von Gesichtszügen in Kombination mit anderen Faktoren mit hoher Genauigkeit bestimmen kann.
Die Autoren der Studie erstellten eine Datenbank mit Gesichtsbildern, um zu testen, ob ein Gesichtserkennungsalgorithmus Gesichter zuverlässig bestimmten politischen Orientierungen zuordnen kann. Ihren Ergebnissen zufolge erwies sich der Algorithmus als effektiv.
Was passiert, wenn der Algorithmus falsch liegt?

Mehrere Studien, darunter eine der American Psychological Association, legen nahe, dass es unmöglich ist, allein anhand des Gesichtsausdrucks einer Person genau zu bestimmen, was sie erlebt. Die Art und Weise, wie Menschen Emotionen – Wut, Ekel, Angst, Freude, Trauer und Überraschung – ausdrücken, kann je nach Kultur, Kontext und sogar zwischen Personen innerhalb derselben Umgebung erheblich variieren.
Viele Modelle enthalten zudem Verzerrungen. Eine Studie der University of Maryland ergab beispielsweise, dass Emotionserkennungssysteme Schwarze häufiger mit Emotionen wie Wut assoziieren als Weiße, selbst wenn beide den gleichen Gesichtsausdruck zeigen. Diese Art der Verzerrung kann zu Ungerechtigkeit und erhöhter Verletzlichkeit führen, insbesondere wenn diese Systeme bei der Videoüberwachung oder bei arbeitsbezogenen Prozessen eingesetzt werden.
Trotz dieser Bedenken breiten sich Technologien zur Emotionserkennung rasant aus. Große Unternehmen wie Amazon (Rekognition), Microsoft (Face API), Apple (das das Startup Emotient übernommen hat ) und IBM entwickeln jeweils eigene Systeme. Ihr Einsatz in Bereichen wie dem Gesundheitswesen und der Sicherheit dürfte weiter zunehmen.