Il riconoscimento facciale è diventato uno dei metodi più accurati per identificare e autenticare gli individui. Oggi, l’IA biometrica viene anche utilizzata per analizzare stati emotivi, rilevare modelli di salute e persino prevedere determinati comportamenti.
Il riconoscimento facciale è una tecnologia probabilistica in grado di riconoscere automaticamente le persone analizzando i tratti del viso. Può individuare un volto umano in un’immagine o in un video, determinare se i volti in due immagini appartengano alla stessa persona o cercare una corrispondenza all’interno di un vasto database di immagini.
Sebbene la tecnologia sia emersa quasi 60 anni fa, le sue capacità sono cresciute esponenzialmente nell’ultimo decennio. I miglioramenti nell’intelligenza artificiale e nelle reti di deep learning hanno consentito progressi significativi sia su immagini statiche che su video in tempo reale.
Il riconoscimento facciale è oggi utilizzato in un’ampia gamma di applicazioni nei settori commerciali e nella sicurezza pubblica, incluse le operazioni di polizia. È ampiamente impiegato nel controllo alle frontiere, nei viaggi, nella vendita al dettaglio, nell’ospitalità e nei servizi bancari.
Rappresenta anche un livello essenziale di sicurezza negli smartphone e nelle app di pagamento, e svolge un ruolo sempre più rilevante nell’accesso contactless agli edifici e nella gestione degli spazi.
Tuttavia, il nostro volto non è solo uno strumento di identificazione. Sta diventando anche una fonte di dati estremamente personali—capace di rivelare informazioni sulle nostre emozioni, sulla salute e persino sulle preferenze politiche.
Rilevare emozioni, prevedere comportamenti

Il riconoscimento delle emozioni è una tecnologia che analizza i sentimenti umani attraverso fonti come immagini e video. Fa parte di un gruppo più ampio di tecnologie noto come affective computing—un campo multidisciplinare che esplora come i computer possano riconoscere e interpretare emozioni e stati d’animo utilizzando modelli di intelligenza artificiale.
Addestrati su grandi set di dati categorizzati, questi algoritmi imparano ad associare le emozioni alle loro espressioni esterne. Quando combinati con fattori contestuali e segnali fisiologici come battito cardiaco, ritmo respiratorio o conduttanza cutanea, i sistemi possono identificare emozioni complesse e persino costruire profili di personalità per prevedere comportamenti.
Aiuto nella diagnosi della salute mentale

La combinazione di IA e riconoscimento facciale è già impiegata nel settore sanitario per ottimizzare la gestione dei dati medici e supportare i medici nelle diagnosi. In particolare, mostra grande potenziale nel rilevare segnali di malattie mentali.
Un esempio è MoodCapture, un’app per smartphone sviluppata da un team di ricerca del Dartmouth College, negli Stati Uniti. Supportata dal Dipartimento della Sicurezza Interna degli Stati Uniti, l’app analizza le espressioni facciali e gli indizi ambientali per identificare sintomi di depressione. Si collega alla fotocamera del telefono e cattura più immagini dell’utente, alla ricerca di segni clinici associati a episodi depressivi. Può persino stimare la gravità della condizione.
Il modello si basa su un dataset di oltre 125.000 immagini provenienti da 177 partecipanti con diagnosi di depressione grave. Questo consente all’app di imparare a distinguere gli stati depressivi da quelli non depressivi. Secondo i suoi creatori, l’app raggiunge attualmente un’accuratezza del 75%.
Rilevamento precoce di malattie genetiche e coronariche

Un’altra app, sviluppata dall’azienda FDNA con sede a Boston, analizza i tratti del viso per rilevare potenziali disturbi genetici. L’azienda ha inizialmente utilizzato un algoritmo addestrato su oltre 17.000 immagini di casi diagnosticati, coprendo 216 diverse sindromi. La sua ultima versione ora include oltre 150.000 immagini nel proprio database ed è in grado di eseguire screening per un’ampia gamma di condizioni genetiche.
Questi algoritmi possono anche essere applicati per valutare il rischio di malattia coronarica, poiché alcune caratteristiche facciali sono state collegate a tale condizione. In uno studio condotto in nove ospedali cinesi, i pazienti sono stati sottoposti a TAC coronariche per aiutare ad addestrare e validare un modello di deep learning. Il modello era progettato per rilevare segni di malattie cardiache da fotografie del volto. Dopo le fasi di addestramento e validazione, il modello ha raggiunto un’accuratezza diagnostica dell’80%.
L’analisi facciale si estende anche alla dermatologia. L’app Legit.Health consente agli utenti di analizzare immagini di lesioni cutanee, interpretarle e fornire indicazioni utili per supportare la diagnosi da parte dei professionisti sanitari.
Il tuo volto può dire per chi voti?

Se sorprende che la tecnologia di riconoscimento facciale possa identificare con precisione segni di depressione, è ancora più sorprendente che possa anche prevedere l’orientamento politico. I ricercatori della Stanford University affermano che l’IA può determinare le inclinazioni politiche di una persona con un alto grado di accuratezza analizzando i tratti del viso in combinazione con altri fattori.
Gli autori dello studio hanno creato un database di immagini facciali per testare se un algoritmo di riconoscimento facciale potesse associare in modo affidabile i volti a specifici orientamenti politici. Secondo i loro risultati, l’algoritmo si è dimostrato efficace.
E se l’algoritmo sbaglia?

Diversi studi, tra cui uno dell’American Psychological Association, suggeriscono che è impossibile determinare con precisione ciò che una persona sta vivendo basandosi esclusivamente sulle espressioni facciali. Il modo in cui le persone esprimono emozioni come rabbia, disgusto, paura, felicità, tristezza e sorpresa può variare significativamente tra culture, contesti e persino tra individui nello stesso ambiente.
Esistono anche pregiudizi incorporati in molti modelli. Ad esempio, uno studio dell’Università del Maryland ha scoperto che i sistemi di riconoscimento delle emozioni tendono ad associare le persone nere con emozioni come la rabbia più frequentemente rispetto alle persone bianche, anche quando entrambe mostrano la stessa espressione facciale. Questo tipo di bias può portare a ingiustizie e maggiore vulnerabilità, specialmente quando questi sistemi sono utilizzati nella videosorveglianza o nei processi di selezione del personale.
Nonostante queste criticità, le tecnologie di riconoscimento delle emozioni stanno crescendo rapidamente. Grandi aziende come Amazon (Rekognition), Microsoft (Face API), Apple (che ha acquisito la startup Emotient) e IBM stanno tutte sviluppando i propri sistemi. Si prevede che il loro impiego in settori come la sanità e la sicurezza continuerà ad espandersi.