Search
Close this search box.
Flag
Logo, Leisure Activities, Person
Flag

Co zdradza Twoja twarz: Sztuczna inteligencja biometryczna

Person, Face, Head

Sztuczna inteligencja biometryczna wykrywa emocje, choroby, a nawet głos. Rozpoznawanie twarzy stało się jedną z najdokładniejszych metod identyfikacji i uwierzytelniania osób. Obecnie sztuczna inteligencja biometryczna jest również wykorzystywana do analizy stanów emocjonalnych, wykrywania wzorców zdrowotnych, a nawet przewidywania pewnych zachowań.

Rozpoznawanie twarzy to probabilistyczna technologia zdolna do automatycznego rozpoznawania ludzi poprzez analizę ich rysów twarzy. System potrafi zlokalizować ludzką twarz na obrazie lub filmie. Może też określić, czy twarz na dwóch obrazach należy do tej samej osoby. Może również wyszukać dopasowanie w dużej bazie danych obrazów.

Chociaż technologia ta pojawiła się prawie 60 lat temu, jej możliwości wzrosły znacznie w ciągu ostatniej dekady. Ulepszenia w zakresie sztucznej inteligencji i sieci głębokiego uczenia umożliwiły znaczny postęp. Dotyczy to zarówno obrazów statycznych, jak i wideo w czasie rzeczywistym.

Rozpoznawanie twarzy służy obecnie wielu celom w sektorach komercyjnych i bezpieczeństwa publicznego, w tym w operacjach policyjnych. Jest szeroko stosowane w kontroli granicznej, podróżach, handlu detalicznym, hotelarstwie i bankowości.

Jest to również niezbędna warstwa bezpieczeństwa w smartfonach i aplikacjach płatniczych. Odgrywa także coraz większą rolę w umożliwianiu bezdotykowego dostępu do budynków i usprawnianiu zarządzania przestrzenią.

Nasza twarz jest jednak nie tylko środkiem identyfikacji. Staje się ona również źródłem głęboko osobistych danych – ujawniając informacje o naszych emocjach, zdrowiu, a nawet preferencjach politycznych

Wykrywanie emocji, przewidywanie zachowań

Rozpoznawanie emocji to technologia, która analizuje ludzkie uczucia za pomocą źródeł takich jak obrazy i filmy. Jest to część szerszej grupy technologii znanych jako informatyka afektywna. Ta multidyscyplinarna dziedzina bada, w jaki sposób komputery mogą rozpoznawać i interpretować emocje i nastroje za pomocą modeli sztucznej inteligencji.

Trenując na dużych, skategoryzowanych zbiorach danych, algorytmy te uczą się kojarzyć emocje z ich zewnętrzną ekspresją. Systemy te mogą identyfikować złożone emocje, a nawet tworzyć profile osobowości w celu przewidywania zachowania. To wszystko dzięki połączeniu czynników kontekstowych i sygnałów fizjologicznych takich jak tętno, wzorce oddychania lub przewodnictwo skóry.

Pomoc w diagnozowaniu zdrowia psychicznego

Połączenie sztucznej inteligencji i rozpoznawania twarzy jest już wykorzystywane w sektorze opieki zdrowotnej. Pozwala ono optymalizować zarządzanie danymi medycznymi i wspierać lekarzy w stawianiu dokładniejszych diagnoz. W szczególności wykazuje ono duży potencjał w wykrywaniu objawów chorób psychicznych.

Jednym z przykładów jest MoodCapture, aplikacja na smartfony opracowana przez zespół badawczy z Dartmouth College w Stanach Zjednoczonych. Wspierana przez Departament Bezpieczeństwa Wewnętrznego Stanów Zjednoczonych, aplikacja analizuje mimikę twarzy i sygnały środowiskowe w celu zidentyfikowania objawów depresji. Łączy się z aparatem telefonu i rejestruje wiele zdjęć użytkownika, wyszukując objawy kliniczne związane z epizodami depresji. Może nawet oszacować stopień zaawansowania choroby.

Model opiera się na zbiorze danych zawierającym ponad 125 000 obrazów od 177 uczestników, u których zdiagnozowano ciężką depresję. Pozwala to aplikacji nauczyć się odróżniać stany depresyjne od niedepresyjnych. Według jej twórców, aplikacja osiąga obecnie wskaźnik dokładności na poziomie 75%.

Wczesne wykrywanie chorób genetycznych i wieńcowych

Inna aplikacja, opracowana przez bostońską firmę FDNA, analizuje rysy twarzy w celu wykrycia potencjalnych zaburzeń genetycznych. Firma początkowo korzystała z algorytmu wyszkolonego na ponad 17 000 zdjęć zdiagnozowanych przypadków obejmujących 216 różnych zespołów. Jego najnowsza wersja zawiera obecnie ponad 150 000 obrazów w swojej bazie danych. Dzięki temu jest w stanie badać pod kątem szerokiego zakresu chorób genetycznych.

Algorytmy te mogą być również stosowane do oceny ryzyka choroby wieńcowej serca. Jest to wynikiem tego, że pewne cechy twarzy zostały powiązane z tym schorzeniem. W badaniu przeprowadzonym w dziewięciu chińskich szpitalach pacjenci przeszli tomografię komputerową tętnic wieńcowych, aby pomóc w szkoleniu i walidacji modelu głębokiego uczenia się. Model został zaprojektowany do wykrywania oznak chorób serca na podstawie zdjęć twarzy. Po etapach szkolenia i walidacji model osiągnął dokładność diagnostyczną na poziomie 80%.

Analiza twarzy obejmuje również dermatologię. Aplikacja Legit.Health pozwala użytkownikom analizować obrazy zmian skórnych. Interpretuje je następnie i dostarcza przydatnych informacji pracownikom służby zdrowia w celu wsparcia diagnozy.

Czy twoja twarz może powiedzieć, na kogo głosujesz?

Zaskakującym jest już fakt, że technologia rozpoznawania twarzy może dokładnie identyfikować oznaki depresji. Tym bardziej uderzającym faktem będzie, że może ona również przewidzieć poglądy polityczne. Naukowcy z Uniwersytetu Stanforda twierdzą, że sztuczna inteligencja może z dużą dokładnością określić skłonności polityczne danej osoby, analizując rysy twarzy w połączeniu z innymi czynnikami.

Autorzy badania stworzyli bazę danych obrazów twarzy, aby sprawdzić, czy algorytm rozpoznawania twarzy może niezawodnie dopasować twarze do określonych poglądów politycznych. Zgodnie z ich wynikami, algorytm okazał się skuteczny. Czy twoja twarz może powiedzieć, na kogo głosujesz?

Co jeśli algorytm się pomyli?

Kilka badań, w tym jedno z Amerykańskiego Towarzystwa Psychologicznego, sugeruje, że niemożliwe jest dokładne określenie, czego doświadcza dana osoba, wyłącznie na podstawie jej wyrazu twarzy. Sposób, w jaki ludzie wyrażają emocje, takie jak złość, obrzydzenie, strach, szczęście, smutek i zaskoczenie, może się znacznie różnić w zależności od kultury, kontekstu, a nawet między osobami w tym samym otoczeniu.

Istnieją również uprzedzenia wbudowane w wiele modeli. Na przykład badanie przeprowadzone przez University of Maryland wykazało, że systemy rozpoznawania emocji mają tendencję do kojarzenia osób czarnoskórych z emocjami takimi jak gniew częściej niż osoby białe, nawet gdy obie osoby wykazują ten sam wyraz twarzy. Ten rodzaj uprzedzeń może prowadzić do niesprawiedliwości i zwiększonej podatności na zagrożenia, zwłaszcza gdy systemy te są wykorzystywane do nadzoru wideo lub procesów związanych z zatrudnieniem.

Pomimo tych obaw, technologie rozpoznawania emocji szybko się rozwijają. Duże firmy, takie jak Amazon (Rekognition), Microsoft (Face API), Apple (który przejął startup Emotient) i IBM opracowują własne systemy. Oczekuje się, że ich zastosowanie w dziedzinach takich jak opieka zdrowotna i bezpieczeństwo będzie nadal rosło.

Powiązane artykuły