
Przeniesienie odpowiedzialności na polu bitwy na Sztuczną Inteligencję
W erze rosnącego wykorzystania Sztucznej Inteligencji w dziedzinie wojskowości, nasuwa się fundamentalne pytanie o etykę i odpowiedzialność. Przykładem tego jest program Habsora (Gospel), używany przez Izraelskie Siły Obronne (IDF) do identyfikacji celów w palestyńskiej Strefie Gazy. Choć wykorzystanie sztucznej inteligencji w czasie wojen zwiększa efektywność i precyzję działań, rodzi również poważne dylematy etyczne.
Wykorzystanie Sztucznej Inteligencji w czasie wojen
Sztuczna Inteligencja (AI) ma zdolność do przetwarzania i analizowania ogromnych ilości danych znacznie szybciej niż zrobiły to człowiek. W dziedzinie wojskowości, technologia ta wykorzystywana jest do identyfikacji i klasyfikacji celów, często w oparciu o dane z różnych źródeł, takich jak obrazy satelitarne czy informacje elektromagnetyczne. Umożliwia to szybką i precyzyjną reakcję na zagrożenia, co jest kluczowe w szybko zmieniającym się środowisku konfliktu.
Jednakże, rosnąca zależność od AI w konfliktach zbrojnych prowadzi do zacierania granic odpowiedzialności. Kiedy AI identyfikuje cele i kieruje atakami, pojawia się pytanie: kto jest odpowiedzialny za skutki takich działań?
Często dochodzi do sytuacji, w której osoby podejmujące decyzje wojskowe zdają się „umywać ręce”, przypisując odpowiedzialność za ofiary cywilne i inne skutki działań wojennych maszynom. To zrzucanie odpowiedzialności na sztuczną inteligencję budzi obawy etyczne, ponieważ odhumanizuje proces decyzyjny i może prowadzić do pomniejszania znaczenia konsekwencji działań wojennych. W takich sytuacjach, kwestia odpowiedzialności staje się niepewna i prowadzi do moralnego i etycznego zafałszowania w podejmowaniu decyzji.
Wykorzystanie sztucznej inteligencji w czasie wojen rodzi znaczące pytania etyczne i prawne. Kluczowym zagadnieniem jest ustalenie, kto ponosi odpowiedzialność za działania wojenne – czy jest to programista algorytmów, analityk danych, czy operator wykonujący atak. Ponadto, istnieje potrzeba jasnych wytycznych etycznych i prawnych, które określą, jak i kiedy AI może być wykorzystywana, a także jak zapewnić odpowiedzialność za jej działania.
Jak armia Izraela wykorzystuje Sztuczną Inteligencję?
Przykłady wykorzystania AI w konfliktach zbrojnych obejmują operację „Gardien des murailles” w 2021 roku, gdzie IDF użyła sztucznej inteligencji do identyfikacji i ataku na cele Hamasu. Podobnie, w konfliktach w Afganistanie i Iraku, Stany Zjednoczone wykorzystywały systemy AI do analizy danych wywiadowczych i przyspieszenia procesu identyfikacji celów terrorystycznych.
Zgodnie z informacjami przekazanymi przez „Le Figaro”, Siły Obronne Izraela – Tsahal używają czterech algorytmów: Alchemist, Gospel, Depth of Wisdom i Fire Factory. Gospel używany jest do zdefiniowania najpilniejszych celów ataku. Fire Factory natomiast pozwala na zoptymalizowanie w czasie rzeczywistym planów ataku samolotów i dronów.
Sztuczna inteligencja nauczyła się poprawnie identyfikować niektóre cele, a także przetwarzać w kilka chwil ogromne liczby danych, które wymagałyby od człowieka kilku dni pracy. AI może m.in. w kilka sekund wykryć i policzyć ilość uzbrojenia i wyposażenia przeciwnika na podstawie zdjęć satelitarnych.
Sztuczna inteligencja przyczynia się również do zatwierdzenia celu, dostarczając dowody na jego ważność i stotność. Przyspiesza podjęcie decyzji sztabu generalnego.
„W Libanie jak i w Gazie, przeciwnicy maskują swoje działania i ukrywają się wśród ludności cywilnej. Analiza nieprzetworzonych fotografii zbieranych od lat pozwala na zidentyfikowanie podejrzanych działań. Pozwala to na skoncentrowanie uwagi na zebraniu dodatkowych informacji aby ustalić uzasadniony cel” – tłumaczy Lior Tabansky, specjalista do spraw cybernetyki na uniwersytecie w Tel Awiwie. „AI jest używana również po to, aby optymalizować operacje, zwłaszcza ataki systemów typu ziemia-powietrze, aby wybrać odpowiedni tor, amunicję i wektor przeciwko setkom celów dziennie” – tłumaczy.
Sztuczna Inteligencja z coraz większymi uprawnieniami na polu bitwy
Sztuczna Inteligencja używana jest przy misjach obserwacji i analizy tożsamości Palestyńczyków na Zachodnim Brzegu. Sztuczna inteligencja ma trzy specjalne zastosowania w armii izraelskiej: zbieranie danych, identyfikowanie celów i usprawnienie logistyki w czasie wojny. AI została pierwszy raz wykorzystana przez armię izraelską podczas operacji w 2021 r., kiedy pozwoliła na zidentyfikowanie dwóch dowódców Hamasu.
Rozwój sztucznej inteligencji na polu walki otwiera nowe możliwości dla wojsk, ale jednocześnie stawia nowe wyzwania etyczne i prawne. Kluczowe będzie znalezienie równowagi między wykorzystaniem tej technologii, a zapewnieniem odpowiedzialności i zgodności z zasadami prawa międzynarodowego. W obliczu rosnącej roli AI na współczesnym polu walki, debaty na temat jej roli i odpowiedzialności za jej użycie są niezbędne, aby uniknąć moralnego zafałszowania i zapewnić odpowiedzialność za działania wojenne.
Szymon Ślubowski