społeczne zaufanie do AI

Wytykanie ludzkich błędów buduje społeczne zaufanie do AI

Przypominanie o naszych własnych słabościach najmocniej napędza społeczne zaufanie do AI, czyniąc z maszyn pozornie sprawiedliwszą alternatywę.

W debacie o sztucznej inteligencji większość uwagi koncentruje się na algorytmicznych uprzedzeniach, ale nowe badania sugerują, że równie ważne jest to, z czym je porównujemy. Gdy ludziom przypomina się, że sami bywają stronniczy to tym samym stają się bardziej wyrozumiali dla sztucznej inteligencji. Algorytmy zaczynają wyglądać bardziej atrakcyjnie, nawet jeśli ich własna sprawiedliwość nie została rzetelnie potwierdzona.

Autorzy badania: Florian Stoeckel z University of Exeter, Ben Lyons z University of Utah oraz Adrienn Ujhelyi i Monika Kovacs z ELTE Eötvös Loránd University skoncentrowali się na wyjątkowo wrażliwym obszarze, którym są decyzje rekrutacyjne w sektorze publicznym. Uczestnicy badania mieli ocenić ryzyko dyskryminacji w procesach naboru, które miały być prowadzone albo przez system AI, albo przez ludzkich rekruterów. Kluczowym elementem projektu było losowe przypisanie osób do dwóch warunków: część najpierw oceniała decyzje AI, a dopiero później ludzi, podczas gdy pozostali zaczynali od oceny rekruterów, a dopiero potem przechodzili do algorytmów.

Zmiana kolejności pytań wobec uczestników badania pełniła rolę „przełącznika kontekstu”. Pozwalała sprawdzić, jak bardzo nasze sądy o sprawiedliwości zależą nie od samych cech systemu, ale od punktu odniesienia. Narzędziem badawczym była duża ankieta YouGov obejmująca 11 000 osób z ośmiu państw europejskich: Austrii, Niemiec, Węgier, Włoch, Holandii, Polski, Hiszpanii i Wielkiej Brytanii. Respondentów proszono zarówno o ocenę obaw przed dyskryminacją, jak i o bezpośrednie porównania ryzyka ze strony ludzi oraz AI.

Wyniki pokazują, że przypominanie o błędach ludzi zmienia ocenę decyzji AI w sposób systematyczny. Kiedy uczestnicy najpierw zastanawiali się nad tym, jak bardzo ludzkie decyzje potrafią być stronnicze, potencjalne uprzedzenia ludzi stawały się dla nich bardziej widoczne i automatycznie przesuwały punkt odniesienia przy późniejszej ocenie algorytmów. W takim kontekście AI częściej jawiła się jako bardziej spójna, bezstronna i w pewnym sensie „bezpieczniejsza” niż człowiek, nawet jeśli konkretne systemy nie zostały dokładnie zbadane pod kątem równego traktowania.

Badacze zwracają uwagę, że obawy obywateli wobec uprzedzeń algorytmicznych nie są stałe ani „wrodzone”, lecz zależą od otoczenia, w jakim ludzie dokonują oceny. Jeśli debata publiczna mocno akcentuje słabości ludzkich decydentów, czyli ich emocjonalność, stereotypy czy interesy polityczne to łatwo powstaje wrażenie, że AI jest z definicji bardziej obiektywna. Problem polega na tym, że ten efekt porównawczy może działać nawet wtedy, gdy sprawiedliwość konkretnego systemu AI nie została przekonująco udowodniona, a jego modele uczą się na danych obciążonych historycznymi uprzedzeniami.

Mechanizm opisany w badaniu ma wyraźny wymiar polityczny. Jeżeli kampanie informacyjne lub debaty publiczne skupiają się na ludzkich błędach, czyli korupcji, nepotyzmie, dyskryminacji to AI może zacząć wyglądać jak naturalna alternatywa: szybsza, tańsza, „bezosobowa”, a więc potencjalnie bardziej sprawiedliwa. W takim scenariuszu rośnie presja obywateli, by administracja publiczna w większym stopniu polegała na systemach algorytmicznych przy rekrutacji, przyznawaniu świadczeń czy podejmowaniu decyzji regulacyjnych.

Autorzy badania ostrzegają, że istnieje realne ryzyko strategicznego wykorzystania tego efektu. Zamiast transparentnie pokazywać, że dany system AI przeszedł niezależne audyty i spełnia określone standardy sprawiedliwości, jego promotorzy mogą po prostu podkreślać słabości ludzi przy okazji budując społeczną akceptację dla rozwiązań, których faktyczna jakość pozostaje niezweryfikowana. Jednocześnie możliwa jest dynamika odwrotna. Kiedy to AI staje się negatywnym punktem odniesienia, ludzkie decyzje zaczynają być oceniane surowiej, ale zarazem rośnie nacisk na „ucywilizowanie” ich poprzez dodatkowe procedury nadzoru.

Szymon Ślubowski

SUBSKRYBUJ „GAZETĘ NA NIEDZIELĘ” Oferta ograniczona: subskrypcja bezpłatna do 31.07.2026.

Strona wykorzystuje pliki cookie w celach użytkowych oraz do monitorowania ruchu. Przeczytaj regulamin serwisu.

Zgadzam się