poglądy polityczne

Sztuczna inteligencja potrafi wyczytać poglądy polityczne z twarzy

Z pewną dozą prawdopodobieństwa jesteśmy w stanie ocenić czyjeś poglądy polityczne wyłącznie po jego wyglądzie. Algorytmy rozpoznawania twarzy radzą sobie w tym jeszcze lepiej – co rodzi implikacje dla bezpieczeństwa, prywatności oraz etycznego wykorzystywania takich narzędzi.

Poglądy polityczne mamy wypisane na twarzy. Dowodzą tego badania naukowców z Uniwersytetu Stanforda w USA, którzy przeanalizowali trafność, z jaką ludzie oraz algorytmy rozpoznawania twarzy przypisywali orientację polityczną osobom na pokazanych im zdjęciach. 

Liberała poznasz po oczach

Naukowcy z Uniwersytetu Stanforda – Michał Kosiński, Poruz Khambatta i Yilun Wang – opublikowali wyniki swojej analizy na łamach pisma „American Psychologist”. Na potrzeby badania wykonano ustandaryzowane fotografie 591 osób (zróżnicowanych pod względem czynników demograficznych: płci, wieku i pochodzenia etnicznego), które uprzednio zapytano o ich sympatie polityczne. Zdjęcia pokazano następnie drugiej grupie uczestników i poproszono ich o ocenienie, jakie poglądy mają przedstawione na nich osoby.

Okazuje się, że ludzie są w stanie ocenić czyjeś poglądy na podstawie je wyglądu z prawdopodobieństwem podobnym do tego, jak przebieg rozmowy kwalifikacyjnej świadczy o późniejszym sukcesie w pracy (współczynnik korelacji r = .21).  Algorytmy rozpoznawania twarzy radzą sobie z tym równie dobrze (r = .22), natomiast gdy w analizie wykorzystują również informacje o wieku, płci i pochodzeniu etnicznym konkretnej osoby, ta dokładność jeszcze wzrasta (r = .31).

Profilowanie za poglądy polityczne

Wnioski płynące z tych badań są dość niepokojące. W kwestii potencjalnego zagrożenia dla prywatności technologiom rozpoznawania twarzy przyglądano się krytycznym okiem już od jakiegoś czasu – obawę budził m.in. DeepFace, algorytm Facebooka umożliwiający przypisywanie twarzy do użytkowników bez manualnego „oznaczania” ich na zdjęciach. W styczniu 2023 r. pojawiły się doniesienia, jakoby firma Madison Square Garden Entertainment wykorzystywała technologię rozpoznawania twarzy, by uniemożliwić wejście do Madison Square Garden prawnikom biorącym udział w procesie przeciwko firmie.

Umiejętność nie tylko zidentyfikowania i przypisania przez AI twarzy do osoby, o której posiada się już jakieś informacje (np. z internetu) jest więc niepokojąca sama w sobie, ale wyniki powyższego badania budzą jeszcze inne dylematy. Wykorzystywanie algorytmów do wydedukowania z rysów twarzy informacji teoretycznie niewidocznych u konkretnej osoby – takich jak jej poglądy lub np. orientacja seksualna, na temat czego również przeprowadzono już badania – otwiera drogę dla automatycznego klasyfikowania ludzi, np. w celu personalizacji treści, ale również dyskryminacji. Przykładowo, pracodawca może odrzucić aplikację kandydata, którego poglądy polityczne – według analizy algorytmu – nie zgadzałyby się z jego własnymi.

Bardzo ważną kwestią jest tu także brak zgody osoby, wobec której stosuje się taki proceder. Można by zadać pytanie – jeżeli informacje na czyjś temat da się nie tyle pozyskać, co z dużą dozą prawdopodobieństwa ocenić na podstawie ogólnie dostępnych danych (np. zdjęcia profilowego na Facebooku), to czy jest to naruszenie prywatności? Czy można zastrzec sobie prawo do danych osobowych, które da się wydedukować z własnego wyglądu? I w jakim stopniu wykorzystywanie do tego algorytmów AI jest etyczne?

Rozwój technologii nigdy się nie zatrzyma, i nie wygląda, jakby miał w najbliższym czasie zwolnić. Stąd nad podobnymi pytaniami – choć jak na razie narzędzia, o których mówimy, są jeszcze niedoskonałe i niewiele lepsze w swoim zastosowaniu niż ludzie – warto zacząć zastanawiać się już dzisiaj.

Joanna Talarczyk

SUBSKRYBUJ „GAZETĘ NA NIEDZIELĘ” Oferta ograniczona: subskrypcja bezpłatna do 31.10.2024.

Strona wykorzystuje pliki cookie w celach użytkowych oraz do monitorowania ruchu. Przeczytaj regulamin serwisu.

Zgadzam się