Maszyny iCub stają się przedłużeniem naszego ciała
Roboty coraz częściej stają się przedłużeniem naszego ciała, zmieniając sposób współpracy człowieka z technologią.
Czy możliwe jest, abyśmy w trakcie współpracy zaczęli traktować robota jak część własnego ciała? Najnowsze badania przeprowadzone przez naukowców z Istituto Italiano di Tecnologia w Genui oraz Brown University w USA sugerują, że tak właśnie się dzieje. Eksperyment z humanoidalnym robotem iCub dowiódł, że w określonych warunkach ludzki mózg potrafi włączyć „rękę” robota do swojego schematu ciała, czyli wewnętrznej mapy, która pomaga nam orientować się w przestrzeni i sprawnie manipulować przedmiotami.
Uczestnicy badania wykonywali wspólnie z robotem zadanie polegające na krojeniu kostki mydła drutem. W trakcie współpracy ich uwaga zaczynała reagować na obecność ręki iCuba tak, jakby była ona naturalnym przedłużeniem ich własnych kończyn. Im bardziej płynne i skoordynowane były ruchy robota, tym silniejszy efekt integracji. Co więcej, gdy badani oceniali iCuba jako sympatycznego i kompetentnego partnera, efekt ten był jeszcze wyraźniejszy. Okazuje się więc, że kluczową rolę odgrywa nie tylko mechanika ruchu maszyny, ale także emocjonalne nastawienie człowieka.
Choć może się to wydawać zaskakujące, podobne zjawisko znamy już z codzienności. Sportowiec, który codziennie trenuje z rakietą tenisową, odczuwa ją jako naturalne przedłużenie ramienia. Kierowca po wielu latach jazdy niemal instynktownie wie, gdzie kończy się jego samochód. Badania nad iCubem pokazują, że także maszyny obdarzone kształtem humanoida i zdolnością do płynnych gestów mogą wejść w tę wyjątkową sferę poznawczą.
Odkrycie ma ogromne znaczenie praktyczne. W medycynie od dawna rozwijane są roboty wspierające rehabilitację, pomagające pacjentom odzyskać sprawność po urazach czy udarach. Jeśli robot może być postrzegany nie jako zimna maszyna, lecz jako część „rozszerzonego ciała” pacjenta, proces terapii może stać się bardziej efektywny i naturalny. Podobne wnioski pojawiają się także w badaniach nad protezami sterowanymi myślami, użytkownicy często zaczynają traktować je nie jako urządzenia, lecz jako integralną część siebie.
Nie tylko laboratoria IIT, czy Brown University interesują się tego typu zjawiskami. W Japonii naukowcy z ATR Computational Neuroscience Laboratories już dekadę temu zauważyli, że wirtualne awatary w rzeczywistości rozszerzonej mogą być włączane do schematu ciała, co zwiększa sprawność w zadaniach motorycznych. Z kolei w MIT Media Lab prowadzone są badania nad tzw. „supernumerary robotic limbs” dodatkowymi mechanicznymi ramionami, które wspierają operatorów przy skomplikowanych pracach. Użytkownicy po pewnym czasie zaczynali posługiwać się nimi tak, jakby były ich własne.
W szerszej perspektywie prace nad integracją robota z percepcją człowieka wpisują się w trend rozwoju technologii immersyjnych i interfejsów mózg–komputer. Wirtualna i rozszerzona rzeczywistość, wspierana przez sztuczną inteligencję, coraz częściej wykorzystuje naturalne mechanizmy poznawcze, aby zatarć granicę między tym, co „realne”, a tym, co cyfrowe. Jeśli robot może zostać zaakceptowany przez ludzki mózg jako część ciała, to granica ta staje się jeszcze cieńsza.
Jednak zbyt silna integracja z maszynami może budzić pytania etyczne: czy tracimy kontrolę, gdy ciało zaczyna rozszerzać się na sztuczne elementy? Czy łatwość adaptacji do robotów nie spowoduje, że zbyt szybko przekażemy im zbyt wiele obowiązków? Dane kwestie pojawiają się także w kontekście tzw. cobotów, czyli robotów współpracujących, coraz częściej obecnych w przemyśle. Badania dowodzą, że pracownicy czują się pewniej, gdy robot porusza się przewidywalnie i „ludzko”.
Eksperyment z iCubem jest więc nie tylko kolejnym krokiem w rozwoju robotyki społecznej, ale także zapowiedzią świata, w którym człowiek i maszyna coraz głębiej współdzielą przestrzeń i zadania. To przyszłość, w której robot może stać się nie tyle narzędziem, ile partnerem, a czasem nawet w pewnym sensie częścią nas samych.
Szymon Ślubowski
