generowane obrazy

Nie jesteśmy już w stanie rozpoznać obrazów stworzonych przez sztuczną inteligencję

Naukowcy z University of Waterloo wskazali, że prawie 40% respondentów, generowane obrazy traktowali jak stworzone przez prawdziwych ludzi.

Ta informacja pochodzi z badania zatytułowanego „Seeing Is No Longer Believing: A Survey on the State of Deepfakes, AI-Generated Humans, and Other Nonveridical Media”, opublikowanego w czasopiśmie Advances in Computer Graphics.

Rozwój technologii generowania obrazów przez sztuczną inteligencję przekroczył granice, których jeszcze kilka lat temu nie bylibyśmy w stanie sobie wyobrazić. Programy takie jak DALL-E i Stable Diffusion, zdolne do tworzenia zaawansowanych wizualizacji na podstawie tekstu, zrewolucjonizowały nie tylko sposób, w jaki tworzymy i postrzegamy sztukę, ale także otworzyły nowe horyzonty w edukacji, projektowaniu i rozrywce. Ta innowacja jednak niesie ze sobą również wyzwania etyczne i bezpieczeństwa cyfrowego, stawiając przed społeczeństwem pytania o wiarygodność wizualnych informacji w erze, w której „zobaczyć” już nie oznacza „wierzyć”. W konsekwencji, naukowcy i twórcy technologii intensywnie pracują nad metodami weryfikacji autentyczności obrazów, starając się wyprzedzić potencjalne zagrożenia związane z nadużyciami w generowaniu treści.

W badaniu uczestniczyło 260 osób, które miały za zadanie zidentyfikować, które z 20 przedstawionych im obrazów (po równo podzielonych między prawdziwe zdjęcia ludzi a te wygenerowane przez programy AI, takie jak Stable Diffusion lub DALL-E) są autentyczne, a które zostały stworzone przez maszyny. Wyniki były zaskakujące, zaledwie 61% odpowiedzi było poprawnych, co znacząco odbiega od oczekiwanej przez naukowców skuteczności na poziomie 85%.

Respondenci, mimo iż wnikliwie analizowali obrazy, zwracając uwagę na detale takie jak palce, zęby czy oczy, często podejmowali błędne decyzje. Andreea Pocol, doktorantka informatyki na University of Waterloo i główna autorka badania, podkreśliła, że ludzie nie są tak skuteczni w rozróżnianiu obrazów generowanych przez AI, jak mogłoby się wydawać. Dodatkowo zaznaczyła, że przeciętny internauta, oglądający obrazy w pośpiechu, ma jeszcze mniejsze szanse na zauważenie subtelnym różnic.

Rozwój technologii AI postępuje w zawrotnym tempie, a obrazy generowane przez sztuczną inteligencję stają się coraz bardziej realistyczne. Ta postępująca ewolucja otwiera drzwi do potencjalnych działań złośliwych lub dezinformacyjnych, zwłaszcza w obszarach politycznych i kulturowych, gdzie fałszywe obrazy osób publicznych mogą być wykorzystywane do kreowania fałszywych narracji.

Pocol podkreśla, że stajemy przed nowym wyzwaniem w walce z dezinformacją, gdzie narzędzia do jej generowania nieustannie się rozwijają. W związku z tym niezbędne jest opracowanie skutecznych metod identyfikacji i przeciwdziałania obrazom generowanym przez AI, aby zapobiec szerzeniu się fałszywych informacji. Ostrzega, że może nadejść moment, w którym nawet dobrze przeszkoleni ludzie będą mieli trudności z odróżnieniem fałszu od rzeczywistości, co czyni potrzebę rozwoju nowych technologii wykrywania AI bardziej palącą niż kiedykolwiek.

Szymon Ślubowski

SUBSKRYBUJ „GAZETĘ NA NIEDZIELĘ” Oferta ograniczona: subskrypcja bezpłatna do 31.08.2024.

Strona wykorzystuje pliki cookie w celach użytkowych oraz do monitorowania ruchu. Przeczytaj regulamin serwisu.

Zgadzam się