
OpenAI i Pentagon rozpoczynają współpracę
OpenAI i Pentagon weszli w współprace podpisując kontrakt dla celów bezpieczeństwa narodowego o wartości 200 milionów dolarów.
Celem jest wykorzystanie generatywnej sztucznej inteligencji (AI) do realizacji zadań wojskowych i administracyjnych. Choć brzmi to jak scenariusz z filmu science fiction, to rzeczywistość, która definiuje nową relację między technologią, państwem a bezpieczeństwem narodowym.
Zgodnie z komunikatem Departamentu Obrony, OpenAI ma za zadanie opracować prototypy zaawansowanych systemów AI, które będą wspierać zarówno działania bojowe, jak i zadania administracyjne. W praktyce może to oznaczać systemy do cyberobrony, analizy danych wywiadowczych, walki z dronami, a także co podkreśla samo OpenAI udoskonalanie biurokracji wojskowej, np. poprzez automatyzację opieki zdrowotnej dla żołnierzy.
To pierwszy tak duży kontrakt, który OpenAI zdobył w ramach swojego programu „AI for Government”, ale nie pierwszy flirt tej firmy z sektorem bezpieczeństwa. W grudniu 2023 roku ogłoszono strategiczne partnerstwo z Anduril Industries, firmą znaną z rozwoju systemów obronnych opartych na sztucznej inteligencji, w tym autonomicznych dronów i radarów.
Zbliżenie między Doliną Krzemową a Pentagonem nie jest nowością. Palantir Technologies, założony przez Petera Thiela, od lat tworzy systemy analityczne dla amerykańskiego wywiadu. Amazon i Microsoft również rywalizowały o wielomiliardowy kontrakt JEDI na przetwarzanie danych w chmurze dla Departamentu Obrony (ostatecznie projekt anulowano). Ale to wejście OpenAI, twórcy najbardziej rozpoznawalnego modelu generatywnego AI budzi nowe pytania.
Czy system, który uczy się z tekstów dostępnych w internecie, można dostosować do zadań tak wrażliwych jak obrona narodowa? OpenAI zapewnia, że wszystkie działania prowadzone będą w zgodzie z jego wytycznymi dotyczącymi etycznego użycia technologii.
USA nie są jedynym krajem, który militarizuje AI. Według raportu Brookings Institution z 2023 roku, Chiny rozwijają własne modele AI zdolne do automatycznej analizy zdjęć satelitarnych i rozpoznawania twarzy na masową skalę. Rosja z kolei testuje autonomiczne pojazdy wojskowe wspierane przez sieci neuronowe.
Szef OpenAI, Sam Altman, przekonuje, że zaangażowanie firmy w projekty rządowe ma na celu „wspieranie wartości demokratycznych”. To jednak budzi mieszane reakcje. Część społeczności technologicznej pamięta protesty pracowników Google z 2018 roku przeciwko projektowi Maven, który zakładał wykorzystanie AI do analizy obrazów dla celów wojskowych. Finalnie Google wycofało się z projektu — presja etyczna okazała się silniejsza niż miliony z Pentagonu.
Fakt, że OpenAI firma budująca narzędzia powszechnie dostępne dla konsumentów i twórców staje się częścią zbrojnej strategii państwa, to symbol nowej fazy integracji AI z codziennym życiem i polityką. Granica między technologią cywilną a wojskową zaciera się. Przyszłość konfliktów może nie polegać już na wojnach w okopach, ale na wojnach danych, sygnałów i modeli predykcyjnych.
To nie jest już pytanie „czy AI zmieni sposób prowadzenia wojen?”, ale „czy społeczeństwa będą w stanie utrzymać kontrolę nad technologią, której potencjał wykracza poza wyobraźnię?”. I właśnie od tego, kto i jak dziś tę technologię projektuje, zależeć będzie, czy świat pójdzie w stronę bezpieczeństwa czy niebezpiecznego precedensu.
Szymon Ślubowski