Deepfake’i masowo

Deepfake’i masowo wykorzystywane w tegorocznych wyborach

Deepfake’i masowo rok do roku będą mocniej wpływać na przebieg prowadzonych wyborów w każdym kraju z dostępem do Internetu.

Technologia deepfake stała się jednym z najniebezpieczniejszych narzędzi dezinformacji, szczególnie podczas wyborów, kiedy to można łatwo manipulować publicznym postrzeganiem kandydatów politycznych. Zdolność do tworzenia przekonujących, ale całkowicie sfabrykowanych filmów, obrazów lub klipów audio polityków stanowi rosnące zagrożenie dla prawidłowych i sprawiedliwych procesów demokratycznych. Na całym świecie w 2024 r. do urn pójdzie ponad 60 krajów, co zwraca uwagę na fakt, że rozprzestrzenianie się deepfake’ów staje się coraz bardziej niepokojące.

Technologia stojąca za deepfake’ami

Deepfakes są tworzone przy użyciu zaawansowanych modeli sztucznej inteligencji znanych jako generatywne sieci przeciwstawne (GAN). Systemy składają się z dwóch komponentów: jednego, który generuje fałszywe treści i drugiego, który próbuje wykryć, czy treść jest fałszywa. Interakcja między tymi dwiema częściami prowadzi do coraz bardziej przekonujących wyników, niezależnie od tego, czy chodzi o stworzenie sfabrykowanego wideo polityka, czy też zmianę jego głosu, aby powiedział rzeczy, których nigdy nie zrobił. Postępy w dziedzinie sztucznej inteligencji ułatwiły osobom bez głębokiej wiedzy technicznej generowanie takich treści, obniżając barierę wejścia dla podmiotów politycznych i złośliwych osób, które chcą zniekształcić prawdę, często osób o ograniczonej wyobraźni i empatii, którzy chcą przechylić szale zwycięstwa swojego kandydata w wyborach.

Łatwość dostępu jest widoczna zarówno w kontekście wyborów w USA, jak i w Polsce. W wyborach w USA w 2024 r. wykorzystanie deepfake’ów przybrało już wiele różnych form, od humorystycznych filmów generowanych przez sztuczną inteligencję przedstawiających Donalda Trumpa i Kamalę Harris w romantycznych scenariuszach, po bardziej niebezpieczne formy manipulacji. Kreacje AI nie są odizolowane tylko od poszczególnych kandydatów, ale są teraz narzędziem wykorzystywanym w szerszych kampaniach dezinformacyjnych. Na przykład TikTok usunął wideo Kamali Harris przedstawiający mówienie w sposób bełkotliwy i cyfrowo zmodyfikowany głos, który został stworzony przy pomocy AI oraz na podstawienia przemówienia kandydatki na Uniwersytecie Howarda w 2023r. Łącznie zostało stworzonych ponad 2300 indywidualnych postów na platformie z użyciem podanego dźwięku.

Deepfake’i w wyborach w Polsce w 2023 r.

Technologia deepfake wpłynęła również na polski krajobraz polityczny. Podczas wyborów parlamentarnych w 2023 r. polska opozycja wykorzystała sfałszowane audio premiera Mateusza Morawieckiego w reklamie politycznej. Wygenerowany przez sztuczną inteligencję klip naśladował głos premiera, omawiając kontrowersyjną politykę i został wykorzystany do satyrycznego ataku na jego partię. Pomimo zamierzonego humorystycznego tonu, reklama spotkała się z reakcją i wywołała debatę na temat etycznych implikacji wykorzystania takiej technologii w kampaniach politycznych. Krytycy argumentowali, że deepfake’i, nawet jeśli są używane w żartach, mogą zaszkodzić zdolności społeczeństwa do ufania wszystkiemu, co widzą lub słyszą od polityków.

Globalne przykłady i obawy etyczne

Wykorzystywanie deepfake’ów w wyborach nie ogranicza się do Stanów Zjednoczonych i Polski. Na całym świecie kampanie polityczne coraz częściej sięgają po sztuczną inteligencję, aby wpływać na opinie wyborców. Na przykład na Słowacji, przed wyborami w 2023 r., fałszywe nagrania audio rozprzestrzeniły się w mediach społecznościowych, przedstawiając lidera liberalnej partii Michala Šimečki, angażującego się w fałszowanie głosów. Incydent był jednym z pierwszych głośnych przypadków, w których deepfake’i zostały wykorzystane do próby manipulowania wyborami. Został on wysłany do sieci 2 dni przed wyborami. W trakcie ciszy wyborczej kandydat nie miał szans się obronić i wyjaśnić sprawy argumentując w jaki sposób nagranie mogło zostać sfałszowane. Takie przypadki podkreślają niebezpieczeństwa stwarzane przez media generowane przez sztuczną inteligencję: pojedynczy dobrze przygotowany deepfake może stać się viralowy w ciągu kilku godzin, wpływając na poglądy milionów, zanim zostanie obalony.

Rodzi to istotne obawy natury etycznej. Podczas gdy satyra i parodia są od dawna elementami dyskursu politycznego, deepfake wprowadza nowy poziom oszustwa, który może łatwo zatrzeć granicę między humorem a dezinformacją. Możliwość tworzenia realistycznych treści, za zgodą lub bez zgody portretowanej osoby, rodzi pytania o prywatność, zaufanie i przyszłość kampanii politycznych. W miarę jak deepfake’i stają się coraz bardziej rozpowszechnione, rośnie ryzyko ich złośliwego wykorzystania – na przykład w celu sfabrykowania skandali, zniesławienia kandydatów, a nawet podważenia bezpieczeństwa narodowego.

Przyszłość Deepfake’i w polityce

Patrząc w przyszłość, jasne jest, że deepfake’i będą nadal ewoluować i odgrywać rolę w przyszłych kampaniach politycznych. Wraz z rozwojem technologii sztucznej inteligencji, realizm tych podróbek będzie wzrastał, czyniąc je trudniejszymi do wykrycia i bardziej przekonującymi. Stanowi to poważne wyzwanie zarówno dla wyborców, dziennikarzy, jak i decydentów. Zwalczanie rozprzestrzeniania się takich dezinformacji będzie wymagało wieloaspektowego podejścia, obejmującego rozwiązania technologiczne do wykrywania deepfake’ów, silniejsze ramy prawne w celu przeciwdziałania ich niewłaściwemu wykorzystaniu oraz publiczne kampanie edukacyjne mające na celu podniesienie świadomości na temat zagrożeń związanych z manipulowanymi.

Środki zaradcze i świadomość

W odpowiedzi na rosnące zagrożenie deepfake’ami, firmy technologiczne, rządy i organizacje pozarządowe opracowują narzędzia do wykrywania i przeciwdziałania tym manipulacjom. Jedną z takich inicjatyw jest tworzenie detektorów opartych na sztucznej inteligencji, które mogą analizować treści wideo i audio pod kątem oznak manipulacji. Jednak wraz z rozwojem technologii deepfake, detektory te będą musiały stać się bardziej wyrafinowane.

Równie ważna jest świadomość społeczna. Im więcej osób zrozumie, jak działają deepfake’i i jaki jest potencjał ich niewłaściwego wykorzystania, tym mniej będą podatni na dezinformację. Kampanie edukacyjne, które uczą umiejętności korzystania z mediów i krytycznego myślenia, są niezbędnymi narzędziami w tej walce. Ponadto organizacje weryfikujące fakty i niezależne media będą odgrywać ważną rolę w weryfikowaniu autentyczności treści politycznych, zanim będą one mogły rozprzestrzeniać się bez kontroli

Deepfake’i stanowią poważne i rosnące zagrożenie dla uczciwości wyborów. Podczas gdy technologia stojąca za tymi manipulacjami wciąż ewoluuje, tak samo muszą ewoluować wysiłki mające na celu wykrywanie, zapobieganie i łagodzenie ich wpływu. W przyszłości możemy spodziewać się jeszcze bardziej realistycznych i wyrafinowanych deepfake’ów, co sprawia, że potrzeba czujności, zarówno z technologicznego, jak i społecznego punktu widzenia, jest pilniejsza niż kiedykolwiek. Sprostanie temu wyzwaniu będzie wymagało współpracy rządów, firm technologicznych i społeczeństwa w celu ochrony procesu demokratycznego przed zagrożeniami związanymi z dezinformacją generowaną przez sztuczną inteligencję.

Szymon Ślubowski

SUBSKRYBUJ „GAZETĘ NA NIEDZIELĘ” Oferta ograniczona: subskrypcja bezpłatna do 31.10.2024.

Strona wykorzystuje pliki cookie w celach użytkowych oraz do monitorowania ruchu. Przeczytaj regulamin serwisu.

Zgadzam się