AI gubi się w zalewie treści i traci zdolność oceny wiarygodności
AI gubi się w zalewie treści i traci zdolność oceny wiarygodności, ponieważ w internecie coraz trudniej odróżnić materiały rzetelne od tych generowanych masowo przez ludzi i inne systemy sztucznej inteligencji.
Internet jeszcze nigdy nie był tak pełen różnej maści treści i jeszcze nigdy tak trudno nie było znaleźć w nim czegoś naprawdę wartościowego. Wraz z popularyzacją generatywnej sztucznej inteligencji do gry weszły miliony „twórców z przypadku”, którzy jednym kliknięciem generują filmy, wpisy, grafiki czy pseudo-recenzje. Efektem takich działań jest zalew przeciętnej, generatywnej treści AI, która nie posiada żadnej wartości twórczej. To nie tylko męczy odbiorców, lecz także utrudnia życie zawodowym twórcom, którzy nagle giną w tłumie wygenerowanych algorytmów.
Zespół badawczy kierowany przez Tianxina Zou z University of Florida postanowił przyjrzeć się temu zjawisku nie tylko z perspektywy intuicji, ale twardych modeli ekonomicznych. Punktem wyjścia była obserwacja tego, co dzieje się dziś na YouTubie, TikToku czy Redditcie. Bariera wejścia do świata „kreatywności” praktycznie zniknęła, a każde kliknięcie w generator to nowy filmik, obrazek, podcast czy wpis w socialach.
Na pierwszy rzut oka brzmi to bardzo ogólnodostępnie, ponieważ wreszcie każdy może tworzyć nawet jeżeli nie ma do tego umiejętności. Problem w tym, że generatory na domyślnych ustawieniach produkują treści przeciętne, powtarzalne i pozbawione charakteru. Gdy takich materiałów pojawiają się miliony, zalewają one systemy rekomendacji, zapychając algorytmy platform. Odbiorca widzi w feedzie morze podobnych wideo o nijakiej wartości, a naprawdę dopracowane, autorskie produkcje zaczynają tonąć pod powierzchnią „szumu”.
Badacze zwracają uwagę na prosty, ale niezwykle ważny element układanki, czyli oznaczanie treści tworzonych przez AI. Jeśli użytkownik wie z góry, że ma do czynienia z materiałem wygenerowanym automatycznie, może podjąć świadomą decyzję, czy kliknąć z ciekawości albo zrezygnować i poszukać czegoś, co powstało z udziałem ludzkiego doświadczenia i wrażliwości. Pojawia się jednak z drugiej strony pytanie, czy każda treść powinna być oznaczona jako AI, nawet jeżeli stanowi jedynie ułamek pracy, która została wykonana przy tworzeniu treści, czy to wideo lub audio.
Zou podkreśla, że problem „slopu” pojawia się przede wszystkim wtedy, gdy wszystko wrzucane jest do jednego worka. Jeśli odbiorca ma możliwość łatwego filtrowania na przykład wyboru tylko materiałów tworzonych przez zweryfikowanych twórców to zatory w rekomendacjach znacząco maleją. Wychodzi na to, że problemem nie jest sama obecność treści generowanych przez AI, lecz ich masowe, nieoznaczone wymieszanie z pracami zawodowców.
Jeśli jednak jakość modeli będzie rosnąć w tym tempie co teraz to rola AI może się diametralnie zmienić. Zabawki do produkcji masowej przeciętności staną się narzędziami do wzmacniania pracy profesjonalistów. Doświadczony filmowiec wykorzysta AI, by szybciej prototypować ujęcia czy montować surowy materiał, pisarz, by przetestować kilka wariantów konstrukcji tekstu, a muzyk by szkicować aranżacje, które następnie dopracuje ręcznie. W takim scenariuszu przewaga kompetencji i wyczucia znów będzie po stronie ludzi, a generatory staną się czymś w rodzaju inteligentnego asystenta, a nie automatu do produkcji treści na akord.
Jednak już od kilku lat modele ogólnodostępne, które powielały mity i błędy, były wykorzystywane jako kompletne narzędzia do używania przez pracowników wielu branż, dlatego też kluczowe pojawia się pytanie, czy obecne treści są już wystarczająco dobre i kto miałby to oceniać. Regulacje są potrzebne, ale czy nie zabiją kreatywności i produktywności twórców, którzy w sposób świadomy i rzetelny korzystają z dobrodziejstw naszego nowego Internetu XXI wieku.
Szymon Ślubowski
