Ludzie współczują i chronią AI
Badanie wykonane przez naukowców zwróciło uwagę na fakt, że ludzie współczują i chronią AI przed wykluczeniem z zabawy.
W badaniu przeprowadzonym przez Imperial College London wykazano, że ludzie okazują współczucie i chronią boty sztucznej inteligencji, które są wykluczane z zabawy. Badacze stwierdzili, że wyniki te podkreślają tendencję człowieka do traktowania agentów AI jako istoty społeczne — skłonność, która powinna być brana pod uwagę podczas projektowania takich systemów.
Badanie zostało opublikowane w czasopiśmie „Human Behavior and Emerging Technologies”. Główny autor, Jianan Zhou z Dyson School of Design Engineering przy Imperial College, powiedział: „To unikalny wgląd w sposób interakcji ludzi z AI, z ekscytującymi implikacjami dla projektowania systemów oraz dla naszej psychologii”.
Współcześnie coraz więcej osób musi wchodzić w interakcje z wirtualnymi agentami w trakcie korzystania z różnych usług, a wielu ludzi używa ich również jako towarzyszy do interakcji społecznych. Wyniki tego badania sugerują jednak, że projektanci powinni unikać tworzenia agentów zbyt podobnych do ludzi.
Dr Nejra van Zalk, współautor badania z tej samej uczelni, stwierdziła: „Badania pokazują sprzeczne wyniki dotyczące tego, czy ludzie traktują wirtualnych agentów AI jako istoty społeczne. Nasze wyniki sugerują, że uczestnicy mieli tendencję do traktowania robotów jako byty społeczne, ponieważ starali się włączyć je do gry, gdy dostrzegali, że są wykluczane. Ten sam mechanizm często występuje w interakcjach międzyludzkich. Co ciekawe, efekt ten był silniejszy u starszych uczestników”.
Ludzie nie lubią wykluczenia – nawet wobec AI. Empatia i działanie naprawcze wobec niesprawiedliwości są czymś, co wydaje się być wbudowane w ludzką naturę. W poprzednich badaniach, które nie dotyczyły AI, wykazano, że ludzie często starają się rekompensować wykluczenie, przekazując piłkę wykluczonemu uczestnikowi częściej, a także odczuwają niechęć wobec sprawcy takiego zachowania, jednocześnie odczuwając sympatię wobec ofiary.
Aby przeprowadzić badanie, naukowcy obserwowali reakcje 244 uczestników, gdy byli świadkami wykluczania robota opartego na systemach AI przez człowieka w grze „Cyberball”, gdzie gracze podawali sobie wirtualną piłkę. Uczestnicy mieli od 18 do 62 lat.
W niektórych grach człowiek niebędący uczestnikiem rzucał piłkę botowi sprawiedliwie, a w innych wyraźnie go ignorował, podając piłkę tylko drugiemu człowiekowi. Następnie obserwowano uczestników i przeprowadzono z nimi ankiety, aby sprawdzić, czy preferowali rzucanie piłki botowi po tym, jak był traktowany niesprawiedliwie, oraz dlaczego.
Okazało się, że większość uczestników starała się naprawić niesprawiedliwość wobec bota, preferując rzucenie piłki w jego stronę. Starsi uczestnicy byli bardziej skłonni dostrzegać niesprawiedliwość.
Naukowcy zwracają uwagę, że wraz ze wzrostem popularności wirtualnych agentów AI w zadaniach współpracy, intensyfikacja interakcji z ludźmi może zwiększać naszą familiarność i wyzwalać automatyczne procesy poznawcze. Oznaczałoby to, że użytkownicy mogliby intuicyjnie traktować agentów wirtualnych jako rzeczywistych członków zespołu i angażować się z nimi społecznie.
Takie podejście może być korzystne w kontekście współpracy, ale budzi obawy w sytuacjach, w których agenci wirtualni są wykorzystywani jako zamienniki dla relacji międzyludzkich, lub jako doradcy w kwestiach zdrowia fizycznego czy psychicznego.
Jianan stwierdził, że „unikając projektowania agentów zbyt podobnych do ludzi, projektanci mogliby pomóc ludziom odróżnić interakcje wirtualne od rzeczywistych. Mogliby również dostosowywać swoje projekty do konkretnych grup wiekowych, uwzględniając, jak nasze cechy wpływają na percepcję”.
Naukowcy zauważają jednak, że gra „Cyberball” może nie w pełni oddawać tego, jak ludzie wchodzą w interakcje w prawdziwym życiu, gdzie interakcje odbywają się zazwyczaj poprzez pisemny lub mówiony język z chatbotami lub asystentami głosowymi. Może to powodować pewne rozbieżności między oczekiwaniami użytkowników a ich reakcjami w trakcie eksperymentu.
Dlatego naukowcy obecnie projektują podobne eksperymenty, w których interakcje będą odbywać się twarzą w twarz z agentami w różnych kontekstach, takich jak laboratorium lub mniej formalne otoczenia. W ten sposób mogą lepiej zrozumieć, w jakim stopniu ich wyniki mają zastosowanie w rzeczywistych warunkach.
Szymon Ślubowski