Wykorzystanie sztucznej inteligencji w czasie wojen

Przeniesienie odpowiedzialności na polu bitwy na Sztuczną Inteligencję

W erze rosnącego wykorzystania Sztucznej Inteligencji w dziedzinie wojskowości, nasuwa się fundamentalne pytanie o etykę i odpowiedzialność. Przykładem tego jest program Habsora (Gospel), używany przez Izraelskie Siły Obronne (IDF) do identyfikacji celów w palestyńskiej Strefie Gazy. Choć wykorzystanie sztucznej inteligencji w czasie wojen zwiększa efektywność i precyzję działań, rodzi również poważne dylematy etyczne.

Wykorzystanie Sztucznej Inteligencji w czasie wojen

Sztuczna Inteligencja (AI) ma zdolność do przetwarzania i analizowania ogromnych ilości danych znacznie szybciej niż zrobiły to człowiek. W dziedzinie wojskowości, technologia ta wykorzystywana jest do identyfikacji i klasyfikacji celów, często w oparciu o dane z różnych źródeł, takich jak obrazy satelitarne czy informacje elektromagnetyczne. Umożliwia to szybką i precyzyjną reakcję na zagrożenia, co jest kluczowe w szybko zmieniającym się środowisku konfliktu.

Jednakże, rosnąca zależność od AI w konfliktach zbrojnych prowadzi do zacierania granic odpowiedzialności. Kiedy AI identyfikuje cele i kieruje atakami, pojawia się pytanie: kto jest odpowiedzialny za skutki takich działań?

Często dochodzi do sytuacji, w której osoby podejmujące decyzje wojskowe zdają się „umywać ręce”, przypisując odpowiedzialność za ofiary cywilne i inne skutki działań wojennych maszynom. To zrzucanie odpowiedzialności na sztuczną inteligencję budzi obawy etyczne, ponieważ odhumanizuje proces decyzyjny i może prowadzić do pomniejszania znaczenia konsekwencji działań wojennych. W takich sytuacjach, kwestia odpowiedzialności staje się niepewna i prowadzi do moralnego i etycznego zafałszowania w podejmowaniu decyzji.

Wykorzystanie sztucznej inteligencji w czasie wojen rodzi znaczące pytania etyczne i prawne. Kluczowym zagadnieniem jest ustalenie, kto ponosi odpowiedzialność za działania wojenne – czy jest to programista algorytmów, analityk danych, czy operator wykonujący atak. Ponadto, istnieje potrzeba jasnych wytycznych etycznych i prawnych, które określą, jak i kiedy AI może być wykorzystywana, a także jak zapewnić odpowiedzialność za jej działania.

Jak armia Izraela wykorzystuje Sztuczną Inteligencję?

Przykłady wykorzystania AI w konfliktach zbrojnych obejmują operację „Gardien des murailles” w 2021 roku, gdzie IDF użyła sztucznej inteligencji do identyfikacji i ataku na cele Hamasu. Podobnie, w konfliktach w Afganistanie i Iraku, Stany Zjednoczone wykorzystywały systemy AI do analizy danych wywiadowczych i przyspieszenia procesu identyfikacji celów terrorystycznych.

Zgodnie z informacjami przekazanymi przez „Le Figaro”, Siły Obronne Izraela – Tsahal używają czterech algorytmów: Alchemist, Gospel, Depth of Wisdom i Fire Factory. Gospel używany jest do zdefiniowania najpilniejszych celów ataku. Fire Factory natomiast pozwala na zoptymalizowanie w czasie rzeczywistym planów ataku samolotów i dronów. 

Sztuczna inteligencja nauczyła się poprawnie identyfikować niektóre cele, a także przetwarzać w kilka chwil ogromne liczby danych, które wymagałyby od człowieka kilku dni pracy. AI może m.in. w kilka sekund wykryć i policzyć ilość uzbrojenia i wyposażenia przeciwnika na podstawie zdjęć satelitarnych.

Sztuczna inteligencja przyczynia się również do zatwierdzenia celu, dostarczając dowody na jego ważność i stotność. Przyspiesza podjęcie decyzji sztabu generalnego.

„W Libanie jak i w Gazie, przeciwnicy maskują swoje działania i ukrywają się wśród ludności cywilnej. Analiza nieprzetworzonych fotografii zbieranych od lat pozwala na zidentyfikowanie podejrzanych działań. Pozwala to na skoncentrowanie uwagi na zebraniu dodatkowych informacji aby ustalić uzasadniony cel” – tłumaczy Lior Tabansky, specjalista do spraw cybernetyki na uniwersytecie w Tel Awiwie. „AI jest używana również po to, aby optymalizować operacje, zwłaszcza ataki systemów typu ziemia-powietrze, aby wybrać odpowiedni tor, amunicję i wektor przeciwko setkom celów dziennie” – tłumaczy. 

Sztuczna Inteligencja z coraz większymi uprawnieniami na polu bitwy

Sztuczna Inteligencja używana jest przy misjach obserwacji i analizy tożsamości Palestyńczyków na Zachodnim Brzegu. Sztuczna inteligencja ma trzy specjalne zastosowania w armii izraelskiej: zbieranie danych, identyfikowanie celów i usprawnienie logistyki w czasie wojny. AI została pierwszy raz wykorzystana przez armię izraelską podczas operacji w 2021 r., kiedy pozwoliła na zidentyfikowanie dwóch dowódców Hamasu. 

Rozwój sztucznej inteligencji na polu walki otwiera nowe możliwości dla wojsk, ale jednocześnie stawia nowe wyzwania etyczne i prawne. Kluczowe będzie znalezienie równowagi między wykorzystaniem tej technologii, a zapewnieniem odpowiedzialności i zgodności z zasadami prawa międzynarodowego. W obliczu rosnącej roli AI na współczesnym polu walki, debaty na temat jej roli i odpowiedzialności za jej użycie są niezbędne, aby uniknąć moralnego zafałszowania i zapewnić odpowiedzialność za działania wojenne.

Szymon Ślubowski

SUBSKRYBUJ „GAZETĘ NA NIEDZIELĘ” Oferta ograniczona: subskrypcja bezpłatna do 31.08.2024.

Strona wykorzystuje pliki cookie w celach użytkowych oraz do monitorowania ruchu. Przeczytaj regulamin serwisu.

Zgadzam się