deepfake

Zwiększenie świadomości cyfrowej bronią wobec deepfake

W czasach, w których treści cyfrowe mogą być manipulowane z wysoką precyzją, pojawienie się deepfake stało się coraz większym problemem.

Obrobione obrazy, tworzone za pomocą technologii deep learningu, mogą przedstawiać ludzi mówiących lub robiących rzeczy, których nigdy nie zrobili, podnosząc kwestie zaufania, prywatności i bezpieczeństwa. Jednak, jak wskazuje Aleksander Essex z Western Information Security and Privacy Research Laboratory, być może skupienie się na wykrywaniu deepfake’ów jest niewłaściwie ukierunkowane. Zamiast tego możemy rozważyć zadanie głębszych pytań o źródło i autentyczność treści cyfrowych.

Deepfakes wykorzystują sztuczną inteligencję do nakładania istniejących obrazów i filmów na źródłowe obrazy lub filmy. Technologia ta szybko ewoluowała, sprawiając, że coraz trudniej jest odróżnić autentyczne treści od sfabrykowanych. Przykłady jej niewłaściwego wykorzystania obejmują oszustwa finansowe, takie jak przypadek, w którym pracownik finansowy został oszukany na 25 milionów dolarów z powodu podszywania się osoby, która wykorzystała tą technologie. Może być to również problemem przy generowaniu pornografii, która została wykonana w sposób sztuczny przy  wykorzystaniu osób, które nigdy w takowej sytuacji się nie znalazły.

Podczas gdy obecne strategie koncentrują się na opracowywaniu oprogramowania do identyfikacji deepfake’ów, wysiłki te mogą oferować jedynie tymczasowe rozwiązanie. Jak zauważa Essex, jesteśmy częścią „wyścigu zbrojeń” przeciwko oszustom, których, wyrafinowane algorytmy ciągle się udoskonalają. Z czasem deepfake’i staną się nie do odróżnienia od rzeczywistych nagrań, czyniąc metody wykrywania nieskutecznymi.

Biorąc pod uwagę ograniczenia wykrycia oszustw internetowych, Essex sugeruje przeniesienie naszej uwagi na weryfikację źródła treści cyfrowych. Zamiast pytać: „Czy to jest deepfake?”, powinniśmy zadać pytanie: „Skąd pochodzi ten obraz? Kto jest jego źródłem? Jak mogę to stwierdzić?”. Takie podejście podkreśla znaczenie kontekstu i pochodzenia nad samą treścią, zgodnie z powiedzeniem Marshalla McLuhana, „medium jest przekazem”.

Walka z deepfake’ami to nie tylko wykrywanie; to także zapobieganie i edukacja. Firmom i organizacjom zaleca się włączenie świadomości i zdolności zapobiegania do ich strategii bezpieczeństwa. Edukacja społeczeństwa na temat istnienia i potencjalnego niewłaściwego wykorzystania sztucznej inteligencji, zachęcanie do krytycznej konsumpcji mediów cyfrowych oraz wdrażanie rozwiązań technologicznych, takich jak cyfrowe znaki wodne oraz wprowadzanie technologii blockchain do weryfikacji treści, to kluczowe kroki w łagodzeniu wpływu deepfake’ów.

W miarę jak radzimy sobie z wyzwaniami stawianymi przez technologię deepfake, staje się jasne, że nasza reakcja musi ewoluować. Zamiast skupiać się wyłącznie na identyfikacji fałszerstw, musimy opracować solidne mechanizmy uwierzytelniania i weryfikacji treści cyfrowych. Obejmuje to wykorzystanie technik kryptograficznych w celu ustalenia weryfikowalnej tożsamości cyfrowej i zapewnienia integralności komunikacji cyfrowej.

Podczas gdy niekontrolowany rozwój technologii spreparowanych nagrań, stanowi ogromne wyzwanie, skłania nas również do ponownego przemyślenia naszych relacji z treściami cyfrowymi. Koncentrując się na źródle i kontekście informacji, stosując środki zapobiegawcze i promując krytyczne podejście do konsumpcji mediów, możemy złagodzić ryzyko związane z deepfake’ami i wspierać bezpieczniejsze środowisko cyfrowe.

Szymon Ślubowski

SUBSKRYBUJ „GAZETĘ NA NIEDZIELĘ” Oferta ograniczona: subskrypcja bezpłatna do 31.08.2024.

Strona wykorzystuje pliki cookie w celach użytkowych oraz do monitorowania ruchu. Przeczytaj regulamin serwisu.

Zgadzam się