metody certyfikacji

Oceny bezpieczeństwa AI poprzez metody certyfikacji

Opracowanie metody certyfikacji bezpieczeństwa i sprawiedliwości sieci neuronowych w sztucznej inteligencji.

Decyzje, które niegdyś były podejmowane przez ludzi, w przyszłości będą często przekazywane maszynom. Ale czy naprawdę możemy polegać na decyzjach podejmowanych przez sztuczną inteligencję? W wrażliwych obszarach ludzie oczekują pewności, że decyzje są sensowne, a przynajmniej że pewne poważne błędy zostały wyeliminowane.

Zespół z Politechniki Wiedeńskiej (TU Wien) oraz AIT Austrian Institute of Technology opracował metody certyfikacji, które pozwalają ocenić, czy pewne sieci neuronowe są bezpieczne oraz przekazują prawidłowy osąd ze względów etycznych. Wyniki tych badań są prezentowane na 36. Międzynarodowej Konferencji na temat Komputerowego Wspomagania Weryfikacji (CAV 2024), która trwa w Montrealu w Kanadzie w dniach 22-27 lipca.

Sztuczna inteligencja (AI) ma tendencję do popełniania błędów. Jeśli skutkiem tego jest jedynie komputerowo wygenerowany obraz osoby z sześcioma palcami na jednej ręce, nie jest to poważny problem. Jednak Anagha Athavale z Instytutu Logiki i Obliczeń na TU Wien uważa, że sztuczna inteligencja znajdzie zastosowanie również w obszarach, gdzie kwestie bezpieczeństwa odgrywają kluczową rolę.

Athavale analizuje sieci neuronowe, które zostały przeszkolone do klasyfikowania pewnych danych wejściowych w określone kategorie. Przykładowo, dane wejściowe mogą dotyczyć sytuacji w ruchu drogowym, a sieć neuronowa została przeszkolona, aby zdecydować, kiedy należy skręcić, zahamować lub przyspieszyć. Innym przykładem mogą być dane dotyczące klientów banku, gdzie AI decyduje, czy danej osobie przyznać kredyt.

„Jednakże są dwie ważne cechy, które wymagamy od takich sieci neuronowych,” wyjaśnia Athavale. „Mianowicie odporność i sprawiedliwość.” Jeśli sieć neuronowa jest odporna, oznacza to, że dwie sytuacje różniące się jedynie w niewielkich szczegółach powinny prowadzić do tego samego wyniku.

Sprawiedliwość jest równie ważną cechą sieci neuronowych. Jeśli dwie sytuacje różnią się tylko jednym parametrem, który nie powinien wpływać na decyzję, sieć neuronowa powinna dawać ten sam wynik.

„Wyobraźmy sobie, że sieć neuronowa ocenia zdolność kredytową,” mówi Athavale. „Dwie osoby mają bardzo podobne dane finansowe, ale różnią się płcią lub pochodzeniem etnicznym. Są to parametry, które nie powinny mieć wpływu na ocenę kredytową. System powinien zatem dawać ten sam wynik w obu przypadkach.”

„Obecne techniki weryfikacji skupiają się głównie na lokalnej definicji sprawiedliwości i odporności,” mówi Athavale. „Badanie tych właściwości lokalnie oznacza sprawdzanie dla jednego konkretnego wejścia, czy małe wariacje prowadzą do różnych wyników. Ale to, co naprawdę chcemy, to zdefiniowanie właściwości globalnych. Chcemy zapewnić, że sieć neuronowa zawsze wykazuje te właściwości, niezależnie od danych wejściowych.”

Podejście do tego problemu w sposób naiwny wydaje się niemożliwe do rozwiązania. Zawsze istnieją stany graniczne między dwiema kategoriami, gdzie mała zmiana wejścia może prowadzić do innego wyjścia.

„Dlatego opracowaliśmy system oparty na zaufaniu,” wyjaśnia Athavale. „Nasze narzędzie weryfikacyjne nie tylko sprawdza pewne właściwości, ale także informuje nas o poziomie zaufania. Na granicy między dwiema kategoriami zaufanie jest niskie. Tam jest w porządku, jeśli nieco różne wejścia prowadzą do różnych wyników. W innych obszarach przestrzeni wejściowej zaufanie jest wysokie, a wyniki są globalnie odporne.”

Ta właściwość oparta na zaufaniu jest ważną zmianą w sposobie definiowania globalnych właściwości sieci neuronowych. „Jednakże, aby globalnie analizować sieć neuronową, musimy sprawdzić wszystkie możliwe wejścia – a to jest bardzo czasochłonne,” mówi Athavale.

Aby rozwiązać ten problem, potrzebne były matematyczne rozwiązania problemu. Athavale musiała znaleźć sposoby na niezawodne oszacowanie zachowania sieci neuronowej bez użycia pewnych funkcji matematycznych, które zwykle są wbudowane w sieci neuronowe, ale wymagają dużo mocy obliczeniowej, jeśli muszą być używane wiele milionów razy. Opracowała uproszczenia, które nadal pozwalają na formułowanie wiarygodnych, rygorystycznych wniosków na temat sieci neuronowej jako całości.

Sukces tej metody pokazuje, że nie trzeba ślepo ufać sztucznej inteligencji, szczególnie gdy podejmuje ona ważne decyzje. Jest technicznie możliwe, aby rygorystycznie testować sieć neuronową i gwarantować pewne właściwości z matematyczną pewnością – co jest ważnym wynikiem dla przyszłej współpracy między ludźmi a maszynami.

Szymon Slubowski

SUBSKRYBUJ „GAZETĘ NA NIEDZIELĘ” Oferta ograniczona: subskrypcja bezpłatna do 31.08.2024.

Strona wykorzystuje pliki cookie w celach użytkowych oraz do monitorowania ruchu. Przeczytaj regulamin serwisu.

Zgadzam się