Rechercher
Fermer ce champ de recherche.
Flag
Logo, Leisure Activities, Person
Flag

Ce que votre visage révèle : l’IA biométrique détecte les émotions, les maladies et même votre vote

Person, Face, Head

La reconnaissance faciale est devenue l’une des méthodes les plus précises pour identifier et authentifier les individus. Aujourd’hui, l’IA biométrique est également utilisée pour analyser les états émotionnels, détecter des tendances en matière de santé et même prédire certains comportements.

La reconnaissance faciale est une technologie probabiliste capable de reconnaître automatiquement les personnes en analysant leurs traits faciaux. Elle peut localiser un visage humain dans une image ou une vidéo, déterminer si le visage de deux images appartient à la même personne ou rechercher une correspondance dans une grande base de données d’images.

Bien que cette technologie soit apparue il y a près de 60 ans, ses capacités ont connu une croissance exponentielle au cours de la dernière décennie. Les progrès de l’intelligence artificielle et des réseaux d’apprentissage profond ont permis des avancées significatives tant dans le domaine des images statiques que dans celui de la vidéo en temps réel.

La reconnaissance faciale sert désormais à des fins très diverses dans les secteurs commerciaux et la sécurité publique, y compris les opérations policières. Elle est largement utilisée dans les domaines du contrôle aux frontières, des voyages, du commerce de détail, de l’hôtellerie et de la banque.

Elle constitue également un niveau de sécurité essentiel dans les smartphones et les applications de paiement, et joue un rôle croissant dans l’accès sans contact aux bâtiments et l’amélioration de la gestion de l’espace.

Cependant, notre visage n’est pas seulement un moyen d’identification. Il devient également une source de données profondément personnelles, révélant des informations sur nos émotions, notre santé et même nos préférences politiques.

Détecter les émotions, prédire les comportements

La reconnaissance des émotions est une technologie qui analyse les sentiments humains à partir de sources telles que des images et des vidéos. Elle fait partie d’un ensemble plus large de technologies connu sous le nom d’informatique affective, un domaine multidisciplinaire qui explore comment les ordinateurs peuvent reconnaître et interpréter les émotions et les humeurs à l’aide de modèles d’intelligence artificielle.

Grâce à un apprentissage sur de vastes ensembles de données classées, ces algorithmes apprennent à associer les émotions à leurs expressions externes. Combinés à des facteurs contextuels et à des signaux physiologiques tels que le rythme cardiaque, les schémas respiratoires ou la conductivité cutanée, ces systèmes peuvent identifier des émotions complexes et même établir des profils de personnalité afin de prédire les comportements.

Aide au diagnostic des troubles mentaux

La combinaison de l’IA et de la reconnaissance faciale est déjà utilisée dans le secteur de la santé pour optimiser la gestion des données médicales et aider les cliniciens à établir des diagnostics plus précis. Elle présente notamment un grand potentiel pour détecter les signes de maladies mentales.

Citons par exemple MoodCapture, une application pour smartphone développée par une équipe de recherche du Dartmouth College aux États-Unis. Soutenue par le département américain de la Sécurité intérieure, cette application analyse les expressions faciales et les indices environnementaux afin d’identifier les symptômes de la dépression. Elle se connecte à l’appareil photo du téléphone et capture plusieurs images de l’utilisateur, à la recherche de signes cliniques associés à des épisodes dépressifs. Elle peut même estimer la gravité de l’état du patient.

Le modèle est basé sur un ensemble de données comprenant plus de 125 000 images provenant de 177 participants diagnostiqués comme souffrant de dépression sévère. Cela permet à l’application d’apprendre à distinguer les états dépressifs des états non dépressifs. Selon ses créateurs, l’application atteint actuellement un taux de précision de 75 %.

Détection précoce des maladies génétiques et coronariennes

Une autre application, développée par la société FDNA basée à Boston, analyse les traits du visage afin de détecter d’éventuelles maladies génétiques. La société a initialement utilisé un algorithme entraîné sur plus de 17 000 images de cas diagnostiqués couvrant 216 syndromes différents. Sa dernière version comprend désormais plus de 150 000 images dans sa base de données et est capable de dépister un large éventail de maladies génétiques.

Ces algorithmes peuvent également être utilisés pour évaluer le risque de maladie coronarienne, car certaines caractéristiques faciales ont été associées à cette affection. Dans une étude menée dans neuf hôpitaux chinois, des patients ont subi des scanners coronariens afin d’aider à former et à valider un modèle d’apprentissage profond. Ce modèle a été conçu pour détecter les signes de maladie cardiaque à partir de photographies du visage. Après les phases de formation et de validation, le modèle a atteint une précision diagnostique de 80 %.

L’analyse faciale s’étend également à la dermatologie. L’application Legit.Health permet aux utilisateurs d’analyser des images de lésions cutanées, de les interpréter et de fournir des informations utiles aux professionnels de santé pour faciliter le diagnostic.

Votre visage peut-il révéler pour qui vous votez ?

S’il peut paraître surprenant que la technologie de reconnaissance faciale soit capable d’identifier avec précision les signes de dépression, il est encore plus étonnant qu’elle puisse également prédire votre orientation politique. Des chercheurs de l’université de Stanford affirment que l’IA peut déterminer les tendances politiques d’une personne avec un haut degré de précision en analysant les traits du visage en combinaison avec d’autres facteurs.

Les auteurs de l’étude ont créé une base de données d’images faciales afin de tester si un algorithme de reconnaissance faciale pouvait associer de manière fiable des visages à des orientations politiques spécifiques. Selon leurs conclusions, l’algorithme s’est révélé efficace.

Que se passe-t-il si l’algorithme se trompe ?

Plusieurs études, dont une de l’American Psychological Association, suggèrent qu’il est impossible de déterminer avec précision ce qu’une personne ressent en se basant uniquement sur ses expressions faciales. La manière dont les gens expriment leurs émotions telles que la colère, le dégoût, la peur, la joie, la tristesse et la surprise peut varier considérablement selon les cultures, les contextes et même entre les individus au sein d’un même environnement.

De nombreux modèles comportent également des biais. Par exemple, une étude de l’université du Maryland a révélé que les systèmes de reconnaissance des émotions ont tendance à associer plus souvent les personnes noires à des émotions telles que la colère que les personnes blanches, même lorsque les deux affichent la même expression faciale. Ce type de biais peut entraîner des injustices et une vulnérabilité accrue, en particulier lorsque ces systèmes sont utilisés dans la vidéosurveillance ou dans des processus liés à l’emploi.

Malgré ces préoccupations, les technologies de reconnaissance des émotions se développent rapidement. De grandes entreprises telles qu’Amazon (Rekognition), Microsoft (Face API), Apple (qui a racheté la start-up Emotient) et IBM développent toutes leurs propres systèmes. Leur utilisation dans des domaines tels que la santé et la sécurité devrait continuer à se développer.

Articles connexes

Les nouvelles directives européennes NIS 2 et CER visent à atteindre un niveau commun élevé de cybersécurité dans l’UE et....