sztuczna inteligencja

Wojna na Bliskim Wschodzie. Sztuczna inteligencja niesie śmierć

Po atakach terrorystycznych na World Trade Center w Nowym Jorku w 2001 pojawiła się koncepcja, by za pomocą komputerów i analizy danych wykrywać zawczasu potencjalnych terrorystów. Komputery wydawały się już wystarczająco mocne; myślano również, że techniki statystyki i korelacji też są dość rozwinięte.

Jak wykryć terrorystów?

Jeszcze bardziej obiecująco wyglądała ta idea po zamachach w Paryżu (Charlie Hebdo, Bataclan) w 2015 r. Analiza wielkiej liczby danych (big data) oraz sztuczna inteligencja poczyniły w międzyczasie wielkie postępy. Chociaż intensywnie wprowadzono rozmaite metody inwigilacji, wyniki były rozczarowujące. Zdarzało się, że po ataku okazywało się, że terrorysta był uprzednio znany policji, ale nie podjęto wobec niego żadnych kroków. Algorytm łączy wiele danych, takich jak odwiedzanie fundamentalistycznych meczetów, oglądanie wideo propagujących dżihad itp. Problem polega na tym, że algorytm ten daje w wyniku zbyt wielu podejrzanych, z których ktoś może coś zrobi, ale zdecydowana większość nie, mimo określonych sympatii. W statystyce mówimy o false positives. Wielu ataków, zwłaszcza mniejszej skali, jak atak nożem na przechodnia, dokonują nie organizacje terrorystyczne, ale „samotne wilki”. We Francji mówi się o „djihadisme d’atmosphère”, dżihadzie powstającym w określonej atmosferze. W Polsce mówimy, że coś wisi w powietrzu. Potencjalnych kandydatów na zamachowców jest wielu, ale praktycznie niemożliwe jest przewidzenie, kto, kiedy, gdzie dokona zamachu – i czy w ogóle.

Poczucie strachu i żądza zemsty mogą prowadzić nie do bezradności, lecz do zdecydowanych kroków. Tak zachował się Izrael po atakach 7 października 2023 r. (operacja Powódź Al-Aksa), podczas którego terroryści Hamasu wyszli z baz w Strefie Gazy i zabili ponad 1000 Izraelczyków, a ok. 250 uprowadzili. Izrael podjął decyzję o wytępieniu terrorystów Hamasu za wszelką cenę. Wiadomo było, że wybór celów będzie nieprecyzyjny, a ofiary wśród osób postronnych będą wielkie. W dotychczasowych przypadkach selektywnej eliminacji (targeted killing) cel był starannie wybierany, a decyzja była weryfikowana przez wielu fachowców. Gdy w podobnej operacji amerykańskie siły specjalne zabiły w 2011 r. Osamę bin Ladena w Afganistanie, prezydent Obama osobiście zatwierdził i nadzorował akcję. W każdej chwili można było zmienić decyzję.

Program „Lavender” – maszyna do zabijania i „głupie bomby”

Ze względu na wielką liczbę celów obecna akcja w Gazie jest inna. Yuval Abraham w izraelskim „+972 Magazine” [LINK] podaje szokujące szczegóły. Teraz to maszyna (program „Lavender”) sugeruje osoby do usunięcia, a człowiek ma dla każdego tylko kilka sekund na decyzję. Ludzka decyzja polega na „ostemplowaniu” decyzji maszyny, a gdyby nie chodziło o ludzkie życie, powiedzielibyśmy, że cały proces staje się farsą.

A ponieważ Hamas świadomie lokuje swoje instalacje w pobliżu obiektów cywilnych, cywilne ofiary zawsze się zdarzają. Obecnie jednak zabójstwa dokonywane są często w prywatnych domach (przypuszczalnych) terrorystów, giną więc przy tym całe rodziny. Program o cynicznej nazwie „Where’s Daddy?” (Gdzie jest tatuś) pomaga w śledzeniu celu i podjęcia decyzji o ataku, gdy ktoś wejdzie do domu.

Dla mniej ważnych aktywistów nie marnuje się amunicji precyzyjnej, stosuje się raczej „głupie bomby” (dumb bombs), co daje jeszcze większy rozrzut i liczniejsze ofiary. Do wyboru celów stosuje się pewien zestaw parametrów dotyczących zachowania i powiązań, a na podstawie zebranych punktów wyznacza się zbiorczy rezultat i końcową decyzję. Pod kreską – mało ważny, nad kreską – do usunięcia. Użycia sztucznej inteligencji nie należy fetyszyzować. Nie tylko procedura selekcji jest dość mało precyzyjna – również ocena, czy zaatakowana osoba jest faktycznie tą, o którą chodzi, może być błędna. Opiera się na rozpoznawaniu twarzy, analizie sposobu chodzenia itp. Krążą pogłoski, że w dniach, gdy algorytm nie wskazuje wystarczającej liczby celów, obniża się kryterium, by osiągnąć oczekiwane liczby.

Automatyczne drony-zabójcy krążą i atakują

Wynik jest taki, że do początku kwietnia 2024 zabito 10 tysięcy (przypuszczalnych) aktywistów Hamasu i ponad 30 tysięcy cywilów. Proceder ten trwa od miesięcy, ale globalna opinia publiczna została zaalarmowana dopiero wtedy, gdy został zaatakowany konwój zachodniej organizacji humanitarnej (World Central Kitchen) i zabitych zostało sześciu mieszkańców Zachodu (w tym jeden Polak) i jeden Palestyńczyk. Trzy kolejne precyzyjne strzały w trzy samochody sugerują działanie automatycznego drona-zabójcy.

Jak to ocenić? Wobec śmiertelnego wroga stosuje się brutalne metody. Alianci przeprowadzali naloty dywanowe na niemieckie miasta, zakładając, że wśród ofiar znajdzie się dość nazistów, którzy sami będą wiedzieć, za co spotyka ich kara. Jednak i dzisiaj trudno te naloty w pełni poprzeć. Łatwiej to przychodzi, bo to nasi bombardowali tamtych. Obecna selekcja pozwala mieć nadzieję, że procentowo więcej się trafi autentycznych terrorystów. Jednak przypomina ona metody znane z ponurych czasów. W rosyjskim filmie Czekista bohaterowi jego pomocnik odczytuje jedno po drugim nazwisko i sprawę, a ten podejmuje decyzję – na ogół rozstrzelanie. Na jeden wyrok wystarcza pół minuty. Dla sprawdzenia uwagi czekisty pomocnik podaje mu jego własne nazwisko. Decyzja – rozstrzelanie. Zaskoczenie, zakłopotanie… jedziemy dalej. Z kolei wykonywanie planu „neutralizacji” terrorystów przypomina stalinowskie normy likwidacji wrogów ludu.

Automatyzm idzie coraz dalej: odwet za odwet

Wiadomo – wojna to brudna sprawa. Wiadomo też, że wielu Arabów zepchnęłoby chętnie wszystkich Żydów do morza. Trudno wyjść z tego kręgu. Ostatni irański nalot na Izrael był odwetem za odwet za odwet. Mimo amerykańskich nacisków Izrael pewnie się będzie musiał odpłacić. Po czym nastąpi odwet, a po nim kolejny…

A walczą ze sobą ludzie wspomagani przez maszyny. Maszyny nie mają empatii, ale nie są też cyniczne ani nie pałają żądzą zemsty. Za to robią swoje. Co gorsze?

Jan Śliwa

SUBSKRYBUJ „GAZETĘ NA NIEDZIELĘ” Oferta ograniczona: subskrypcja bezpłatna do 31.08.2024.

Strona wykorzystuje pliki cookie w celach użytkowych oraz do monitorowania ruchu. Przeczytaj regulamin serwisu.

Zgadzam się