
Grok i pułapki cyfrowego fact-checkingu
Grok przykładem sztucznej inteligencji, która nadal w dużej mierze łapie się na pułapki cyfrowego fact-checkingu.
Dezinformacja rozprzestrzenia się szybciej niż kiedykolwiek przez co użytkownicy coraz częściej sięgają po sztuczną inteligencję jako narzędzie weryfikacji informacji. Niestety, jak pokazuje niedawne badanie Atlantic Council, nawet najnowsze technologie potrafią zawieść i to spektakularnie.
Pod lupę trafił chatbot Grok, zintegrowany z platformą X (dawniej Twitter), który miał wspierać użytkowników w oddzielaniu faktów od fikcji w czasie eskalacji konfliktu między Izraelem, a Iranem. W rezultacie Grok nie tylko nie potrafił zweryfikować oczywistych fałszywek, ale też prezentował sprzeczne wersje wydarzeń, czasem w odstępie zaledwie kilku minut.
Jak wykazało badanie DFRLab, Grok nie radził sobie z oceną autentyczności materiałów wizualnych, takich jak AI-generowane nagrania bombardowań. W jednym przypadku chatbot najpierw potwierdził zniszczenie lotniska w Tel Awiwie, by po chwili stwierdzić, że to fejk, a następnie przypisać atak Jemeńskim rebeliantom. Innym razem rozpoznał lotnisko w Bejrucie… potem w Gazie… i w Teheranie.
Błędy Groka nie były odosobnione. Gdy fałszywe wieści o chińskich samolotach wojskowych lecących do Iranu zaczęły krążyć w sieci, zarówno Grok, jak i konkurencyjny chatbot Perplexity, uznały je za prawdziwe mimo braku jakichkolwiek źródeł potwierdzających tę informację. To nie pierwszy raz, gdy AI zawodzi w obliczu dezinformacji. W przeszłości Grok propagował też teorie spiskowe dotyczące „białego ludobójstwa” w RPA.
Dane doświadczenie pokazuje, że obecne podejście do fact-checkingu wykonywanego przez sztuczną inteligencje może być zbyt ryzykowne. Gdy chatboty powielają fałszywe treści, które potem są cytowane i udostępniane przez miliony użytkowników, skutki bywają realne. Od eskalacji napięć politycznych po manipulację opinią publiczną.
Jak zauważa badanie, Grok miał trudność nie tylko z obrazami. Mylił się także w prostych pytaniach tekstowych, źle interpretował daty i fakty, a czasem wręcz „wymyślał” informacje. Elon Musk, którego firma xAI stworzyła Groka, przyznał w maju, że chatbot „ma fatalne źródła”.
Eksperci pomimo tych negatywnych informacji twierdzą, że AI może wspierać fact-checking, ale nie może go całkowicie zastąpić. Systemy takie jak Grok powinny współpracować z zespołami ludzi: dziennikarzami, analitykami, którzy potrafią ocenić kontekst i intencje. Automatyzacja nie oznacza automatycznej prawdy.
Warto wspomnieć, że problem nie dotyczy wyłącznie Groka. W 2023 roku badacze z MIT wykazali, że duże modele językowe, w tym ChatGPT i Bard, regularnie podają błędne informacje przy zapytaniach o aktualne wydarzenia. W marcu 2024 r. OpenAI zapowiedziało rozwój tzw. „źródłowych wtyczek”, które mają umożliwiać lepsze uzasadnianie odpowiedzi, ale prace wciąż trwają.
Jeśli chatboty mają być wiarygodnym narzędziem informacyjnym, potrzebują nie tylko zaawansowanych algorytmów, ale i rygorystycznej kontroli źródeł, transparentności działania i ciągłej walidacji przez człowieka. Powinny także jasno sygnalizować, kiedy nie są w stanie udzielić wiarygodnej odpowiedzi zamiast zgadywać.
Konflikty zbrojne, wybory, kryzysy społeczne to nie są pola do eksperymentów technologicznych. Jeśli Grok i inne AI mają być czymś więcej niż modnym gadżetem, muszą udowodnić, że potrafią służyć prawdzie.