Pentagon i Grok AI – sojusz w amerykańskiej armii
Pentagon i Grok AI rozpoczynają nowy etap integracji sztucznej inteligencji z armią USA, wprowadzając wojskowe zastosowania tej technologii.
Departament Obrony Stanów Zjednoczonych oficjalnie potwierdził, że chatbot Grok, rozwijany przez firmę xAI Elona Muska, zostanie wdrożony w infrastrukturze Pentagonu. Decyzja ukazuje jak wielki chęci są pokładane w jak najszybszej adaptacji generatywnej sztucznej inteligencji w wojsku, obok już wykorzystywanych narzędzi takich jak modele Google.
Sekretarz obrony Pete Hegseth zapowiedział, że docelowo „najlepsze modele AI na świecie” mają działać zarówno w sieciach jawnych, jak i niejawnych resortu. Pentagon planuje także udostępnić modelowi ogromne zbiory danych operacyjnych i wywiadowczych, gromadzone przez ponad dwie dekady działań militarnych.
.Skala tej transformacji jest bezprecedensowa. Pete Hegseth podkreśla, że sztuczna inteligencja ma pomóc wojsku szybciej analizować informacje, wspierać planowanie operacyjne i usprawniać proces decyzyjny. W jego wizji AI nie jest narzędziem pomocniczym, lecz kluczowym elementem nowoczesnej armii, zdolnym do działania w czasie rzeczywistym. Jednocześnie sekretarz obrony zaznaczył, że systemy wykorzystywane przez Pentagon muszą być „praktyczne i skuteczne w realnych warunkach pola walki”, co wzbudziło obawy części ekspertów o marginalizowanie etycznych i prawnych ograniczeń.
Kontrowersje wokół Groka dodatkowo podgrzewają debatę. Zaledwie kilka dni przed ogłoszeniem decyzji Pentagonu chatbot znalazł się w centrum międzynarodowego skandalu po generowaniu deepfake’ów o podtekście seksualnym. W reakcji na te incydenty Malezja i Indonezja zablokowały dostęp do Groka, a brytyjski regulator ds. bezpieczeństwa w sieci wszczął postępowanie wyjaśniające. Wcześniej Grok był także krytykowany za antysemickie treści oraz narracje spiskowe, co stawia pod znakiem zapytania dojrzałość jego mechanizmów bezpieczeństwa, które nawet amatorzy potrafili obejść.
Decyzja Pentagonu kontrastuje z podejściem poprzedniej administracji USA. W 2024 roku wprowadzono ramy regulacyjne, które co prawda zachęcały agencje bezpieczeństwa do korzystania z zaawansowanej AI, ale jednocześnie jasno zakazywały jej użycia w sposób naruszający prawa obywatelskie, również w kontekście moralnym, którego AI brakuje. Obecnie nie jest jasne, w jakim zakresie ograniczenia pozostają w mocy. Hegseth mówił otwarcie o potrzebie „braku ideologicznych ograniczeń” dla wojskowych systemów AI, co rodzi pytania o przyszły nadzór nad technologią.
Eksperci ds. bezpieczeństwa zwracają uwagę, że choć AI może znacząco zwiększyć efektywność armii, jej integracja z wrażliwymi danymi niesie ogromne ryzyka. Modele generatywne są podatne na błędy, manipulacje i nieprzewidywalne zachowania, szczególnie przy zasilaniu ogromnymi, złożonymi zbiorami danych. Krytycy ostrzegają, że pośpiech w implementacji może prowadzić do sytuacji, w których wojsko będzie polegać na narzędziach nie w pełni przetestowanych w kontekście bezpieczeństwa narodowego.
Wdrożenie Groka w Pentagonie symbolizuje nowy etap wyścigu technologicznego, w którym granice między sektorem prywatnym, a militarnym coraz bardziej się zacierają łączą się już nawet w kontekście technologii sztucznej inteligencji. Wiele filmów już było nagranych w tej tematyce, kiedy to sztuczna inteligencja posiadająca za duże prawa, wymykała się spod kontroli. Mam nadzieję, że wyciągniemy wnioski z co prawda „fabularnej kinematografii” jednak wiele z wątków można już powoli przenieść na nasze prawdziwe podwórko poza filmem.
Szymon Ślubowski
