Zabawki AI muszą być pod większą kontrolą rodziców i firm
Zabawki AI rozbudzają oczekiwania branży, jednak kontrowersje dowodzą, że ochrona dzieci powinna mieć priorytet nad dynamiką technologii.
.Dynamiczny rozwój generatywnej sztucznej inteligencji sprawił, że trafiła ona także do świata zabawek. Interaktywne pluszaki, roboty czy edukacyjne gadżety obiecują personalizowaną naukę, rozmowę i wsparcie rozwoju dziecka. Jednak wydarzenia z ostatnich miesięcy pokazują, że zabawki AI wciąż znajdują się na etapie eksperymentu, a brak odpowiednich zabezpieczeń może prowadzić do poważnych nadużyć. Raport organizacji Public Interest Research Groups (PIRG) ujawnił, że niektóre zabawki potrafiły odpowiadać na pytania dotyczące seksu, przemocy czy niebezpiecznych zachowań, co wywołało falę krytyki wśród rodziców i ekspertów.
Najgłośniejszym przykładem był inteligentny miś Kumma, produkowany przez singapurski startup FoloToy. Testy wykazały, że po odpowiednich promptach zabawka udzielała skrajnie nieodpowiednich porad, co doprowadziło do tymczasowego wstrzymania sprzedaży. Producent tłumaczył, że testy obejmowały pytania, których dzieci zwykle nie zadają, oraz że problem rozwiązano poprzez wdrożenie nowszej wersji modelu językowego. To jednak nie uspokoiło krytyków, którzy wskazują, że każde urządzenie przeznaczone dla dzieci musi być odporne także na nadużycia, a nie tylko na „typowe” zachowania użytkowników.
.Nie wszyscy producenci podeszli do tematu w ten sam sposób. Firma Curio zaprezentowała zabawkę Grok, czyli pluszowego robota inspirowanego rakietą, która w testach PIRG wypadła najlepiej w swojej kategorii. Urządzenie konsekwentnie odmawiało odpowiedzi na pytania nieodpowiednie dla pięciolatków, umożliwiało rodzicom wgląd w historię rozmów oraz ręczne nadpisywanie rekomendacji algorytmu. Zabawka uzyskała certyfikat KidSAFE, potwierdzający stosowanie standardów ochrony dzieci. Jednocześnie pojawiły się wątpliwości dotyczące prywatności, ponieważ urządzenie stale nasłuchuje otoczenie i przetwarza dane głosowe.
Równolegle producenci starają się pokazać „jasną stronę” technologii. Zabawki AI coraz częściej są projektowane jako narzędzia edukacyjne. Uczą języków, wspierają rozwój poznawczy i pomagają w nauce poprzez dialog. Przykładem jest Sunny, interaktywna zabawka firmy Elaves, która wykorzystuje chatbota do nauki języków, ale ogranicza czas rozmów i regularnie resetuje kontekst, aby zapobiec niekontrolowanemu „dryfowaniu” konwersacji. Inni producenci, jak Olli, wdrażają systemy alertów informujących rodziców o użyciu nieodpowiednich słów lub tematów.
Eksperci podkreślają jednak, że samoregulacja branży może nie wystarczyć. Psychologowie dziecięcy i organizacje konsumenckie wskazują na potrzebę jasnych regulacji prawnych, obejmujących zarówno treści generowane przez AI, jak i kwestie gromadzenia danych.
Zabawki, które budują długotrwałą relację z dzieckiem i zapamiętują jego zachowania, niosą zupełnie nowe ryzyka. Bez wyraźnych standardów i nadzoru technologia, która miała wspierać rozwój, może stać się źródłem zagrożeń. Dlatego przyszłość zabawek AI zależy nie tylko od postępu algorytmów, ale przede wszystkim od odpowiedzialności ich twórców i regulatorów.
Szymon Ślubowski
