Szkolenie AI pod względem treści z social media
AI zaczęło uczyć się ze stworzonych przez Ciebie postów na Reddicie, Stack Overflow i Facebooku. Nie masz nic przeciwko temu?
Kiedy publikujesz komentarz na Reddicie, odpowiadasz na pytania dotyczące kodowania na Stack Overflow, edytujesz wpis w Wikipedii lub udostępniasz zdjęcie na Facebooku lub Instagramie, nieumyślnie pomagasz trenować sztuczną inteligencję (AI). Jednak nie wszyscy czują się z tym komfortowo – zwłaszcza, że platformy te są zalewane treściami generowanymi przez sztuczną inteligencję, które naśladują ludzkie reakcje.
Niektórzy wieloletni użytkownicy próbowali usunąć swoje wypowiedzi lub zmienić je w bzdury, ale wysiłki te miały niewielki wpływ. Kilka rządów, w tym brazylijski regulator prywatności, również próbowało interweniować.
„Wiele osób czuje się bezsilnych” – mówi Sarah Gilbert, moderatorka-wolontariuszka na Reddicie i badaczka z Cornell University. „Jedyną opcją wydaje się być przejście do trybu offline lub zaprzestanie wnoszenia znaczących treści”.
Platformy zareagowały na te obawy na różne sposoby, z mieszanym powodzeniem. Na przykład Stack Overflow, popularna strona z poradami dotyczącymi kodowania, początkowo zakazała odpowiedzi generowanych przez ChatGPT z powodu częstych błędów. Później nawiązała współpracę z twórcami chatbotów AI, a nawet ukarała użytkowników, którzy próbowali usunąć swoje wypowiedzi w proteście.
Andy Rotering, programista z Bloomington w stanie Minnesota, który korzysta ze Stack Overflow codziennie od 15 lat, obawia się, że firma może zagrozić swojemu najcenniejszemu zasobowi – społeczności współpracowników. „Zachęcanie współtwórców do dostarczania cennych spostrzeżeń powinno być najwyższym priorytetem” – mówi.
Dyrektor generalny Stack Overflow, Prashanth Chandrasekar, przyznaje, że wyzwaniem jest zrównoważenie popytu na natychmiastowe odpowiedzi generowane przez sztuczną inteligencję z utrzymaniem bazy wiedzy opartej na społeczności. „Za pięć lat większość treści online będzie generowana maszynowo” – mówi. „Będzie niewiele miejsc z prawdziwie autentyczną, oryginalną ludzką myślą, a my chcemy być jednym z tych miejsc”.
Przez ponad dekadę użytkownicy znajdowali odpowiedzi na swoje pytania dotyczące kodowania na Stack Overflow za pomocą prostego wyszukiwania w Google. Najbardziej widoczne odpowiedzi pochodziły od wolontariuszy, którzy zdobywali punkty wiarygodności, co czasami nawet pomagało im zapewnić sobie pracę. Jednak wraz z pojawieniem się chatbotów AI, takich jak ChatGPT, które mogą natychmiast generować odpowiedzi przy użyciu danych ze Stack Overflow, platforma stanęła w obliczu egzystencjalnego zagrożenia.
Aby temu zaradzić, Chandrasekar utworzył 40-osobowy zespół w celu opracowania Overflow AI, wyspecjalizowanego chatbota AI. Ponadto Stack Overflow nawiązał współpracę z Google i OpenAI, aby umożliwić tym firmom dostęp do archiwum pytań i odpowiedzi, ulepszając ich modele sztucznej inteligencji.
Pomimo tych wysiłków, Maria Roche, adiunkt w Harvard Business School, uważa, że Stack Overflow mógł działać zbyt późno. „To zaskakujące, że nie zaczęli nad tym pracować wcześniej” – mówi.
Kiedy niektórzy użytkownicy próbowali usunąć swoje wcześniejsze komentarze po ogłoszeniu partnerstwa OpenAI, Stack Overflow zawiesił ich konta, powołując się na warunki, które sprawiają, że wszystkie wkłady są trwale licencjonowane na platformie. „Zajęliśmy się tym szybko, wyjaśniając, że takie zachowanie jest niedopuszczalne” – mówi Chandrasekar, zauważając, że protestujący stanowili niewielką mniejszość wśród 100 milionów użytkowników platformy.
We wtorek brazylijski krajowy organ ochrony danych zakazał Meta Platforms trenowania swoich modeli AI na brazylijskich postach na Facebooku i Instagramie, nakładając dzienną grzywnę za nieprzestrzeganie przepisów. Meta nazwała to niepowodzeniem dla innowacji, argumentując, że jest bardziej przejrzysta niż wiele innych firm z branży i przestrzega brazylijskich przepisów.
W Europie Meta wstrzymała plany wykorzystania publicznych postów do szkolenia AI ze względu na opór. W Stanach Zjednoczonych, gdzie nie ma krajowych przepisów dotyczących prywatności w Internecie, takie szkolenia prawdopodobnie już się odbywają. „Większość ludzi nie zdaje sobie sprawy, że ich dane są wykorzystywane” – mówi Gilbert.
Reddit przyjął inne podejście, współpracując z twórcami sztucznej inteligencji, takimi jak OpenAI i Google, jednocześnie wymagając, aby treści nie mogły być pobierane masowo bez zgody. Transakcje przyniosły korzyści finansowe Redditowi, który zadebiutował na Wall Street w marcu, szybko osiągając wycenę prawie 9 miliardów dolarów.
W przeciwieństwie do Stack Overflow, Reddit nie ukarał użytkowników protestujących przeciwko treściom AI. Jednak Gilbert, który moderuje subreddit „AskHistorians”, jest zaniepokojony rosnącą liczbą komentarzy generowanych przez sztuczną inteligencję. „Ludzie przychodzą na Reddit, by rozmawiać z ludźmi, a nie z botami” – mówi. „Istnieje ryzyko, że treści AI mogą ostatecznie odstraszyć użytkowników”.
Ironia polega na tym, że treści generowane przez sztuczną inteligencję, zagrażające platformom takim jak Reddit, pochodzą z wkładu milionów użytkowników. Ponieważ sztuczna inteligencja nadal ewoluuje i integruje się ze społecznościami internetowymi, platformy muszą zachować delikatną równowagę między wykorzystywaniem sztucznej inteligencji w celu zwiększenia wydajności a utrzymaniem ludzkiego charakteru, który przede wszystkim przyciąga użytkowników.
Zapewnienie przejrzystości i zgody użytkowników na to, w jaki sposób sztuczna inteligencja wykorzystuje ich dane, będzie miało kluczowe znaczenie. W miarę jak sztuczna inteligencja staje się coraz bardziej powszechna, potrzeba platform do szanowania wkładu użytkowników i rozwiązywania obaw dotyczących treści generowanych przez sztuczną inteligencję będzie tylko rosła. Utrzymanie przestrzeni dla autentycznej interakcji międzyludzkiej przy jednoczesnym uwzględnieniu postępu technologicznego będzie kluczem do przyszłego sukcesu tych platform.
Szymon Ślubowski