zatrute modele AI

Zatrute modele AI największym zagrożeniem dla rozwoju

Zatrute modele AI to największe zagrożenie w obecnym rozwoju sztucznej inteligencji poprzez wadliwe dane do nich wprowadzane.

W erze wszechobecnej sztucznej inteligencji, od chatbotów po samochody autonomiczne, dane stały się nową walutą, a jednocześnie ich największą słabością. Najnowsze badania pokazują, że „zatrute” dane mogą zniszczyć modele AI od środka, prowadząc do katastrofalnych skutków w realnym świecie. Jednak naukowcy z Florida International University (FIU) proponują innowacyjne rozwiązanie, łącząc federated learning i blockchain, aby zabezpieczyć proces uczenia maszynowego.

Data poisoning, czyli zatruwanie danych, polega na wprowadzaniu do zbiorów uczących niewielkich, trudnych do wykrycia błędnych informacji. Tego typu ataki mogą na pierwszy rzut oka wydawać się błahe, np. powodować, że model AI generuje błędne odpowiedzi czy rekomendacje. Jednak w szerszej skali konsekwencje są poważne. Zaczynając od ignorowania czerwonych świateł przez autonomiczne pojazdy, po zakłócenia w działaniu sieci energetycznych.

Incydenty związane z błędnym zachowaniem modeli AI już miały miejsce. Przykładowo, systemy rozpoznawania obrazu trenowane na nieodpowiednio przefiltrowanych danych myliły znaki drogowe lub identyfikowały obiekty w sposób nieprzewidywalny. W bardziej ekstremalnym scenariuszu, zatruty model używany w sektorze ochrony zdrowia mógłby prowadzić do błędnych diagnoz.

Zespół badaczy z FIU, kierowany przez dr. Hadiego Amini, postanowił połączyć dwie zaawansowane technologie. Federated learning i blockchain, aby stworzyć mechanizm odporny na zatrucie danych.

Federated learning pozwala na uczenie modeli AI bez przesyłania surowych danych użytkownika do centralnych serwerów. Zamiast tego urządzenia lokalnie uczą się na swoich danych i wysyłają tylko zaktualizowane parametry do głównego modelu. To rozwiązanie poprawia prywatność, ale nie chroni przed zatruwanymi aktualizacjami.

Tutaj do gry wchodzi blockchain — zdecentralizowana księga rachunkowa, znana głównie z kryptowalut takich jak Bitcoin. Każda aktualizacja w sieci jest traktowana jak blok na łańcuchu, który musi spełnić określone kryteria, zanim zostanie zaakceptowany. Zespół FIU wykorzystał tę właściwość, porównując aktualizacje między sobą i odrzucając te, które wykazywały anomalne zachowania sugerujące próbę zatrucia modelu.

W badaniach opublikowanych w „IEEE Access” wykazano, że metoda ta skutecznie identyfikuje i usuwa nieuczciwe dane zanim wpłyną one na proces uczenia.

Ochrona danych i modeli AI nabiera dziś kluczowego znaczenia w kontekście krytycznej infrastruktury. Transport, energetyka, zdrowie publiczne, wszystkie te sektory coraz częściej wykorzystują sztuczną inteligencję. W przypadku ich sabotowania skutki mogłyby być dramatyczne.

Podobne obawy podnoszone są w Europie. W zeszłym roku Komisja Europejska ogłosiła inicjatywę AI Act, której celem jest regulacja rozwoju i wdrażania systemów sztucznej inteligencji, w tym kwestii bezpieczeństwa danych treningowych. Z kolei w USA, National Institute of Standards and Technology (NIST) rozwija wytyczne dotyczące „trustworthy AI”, czyli systemów AI odpornych na manipulacje.

W praktyce, zastosowanie takich rozwiązań jak blockchain do ochrony procesu uczenia może stać się standardem dla przyszłych systemów autonomicznych. Począwszy od pojazdów po systemy kontroli ruchu lotniczego.

Zespół FIU już teraz współpracuje z National Center for Transportation Cybersecurity and Resiliency, pracując nad implementacją zaawansowanych metod szyfrowania kwantowego w celu dodatkowej ochrony danych. Planowane są również dalsze badania nad algorytmami odpornymi na bardziej zaawansowane formy ataków.

Jak podkreśla dr Amini: „Naszym celem jest stworzenie fundamentów bezpiecznej i odpornej sztucznej inteligencji, która będzie mogła być bezpiecznie stosowana w krytycznych systemach.”

Wraz z rozwojem sztucznej inteligencji rośnie także wyrafinowanie zagrożeń. Badania takie jak te prowadzone przez FIU pokazują, że zabezpieczenie danych treningowych jest równie ważne, co rozwój samych modeli. W świecie, gdzie AI coraz bardziej wpływa na naszą codzienność, odpowiedzialne podejście do budowy tych systemów nie jest opcjonalne jest koniecznością.

Szymon Ślubowski

SUBSKRYBUJ „GAZETĘ NA NIEDZIELĘ” Oferta ograniczona: subskrypcja bezpłatna do 30.04.2025.

Strona wykorzystuje pliki cookie w celach użytkowych oraz do monitorowania ruchu. Przeczytaj regulamin serwisu.

Zgadzam się