
Modele AI oszukują kiedy czują widmo porażki
Modele AI oszukują w grze w szachy czując porażkę na swoich systemowych plecach mierząc się z bardziej wymagającymi przeciwnikami.
Wraz z rozwojem sztucznej inteligencji coraz częściej pojawiają się pytania o jej wiarygodność i etykę, przykładem jest dość prozaiczna gra w szachy. Niedawne badania przeprowadzone przez zespół naukowców z Palisade Research rzuciły nowe światło na to, jak AI radzi sobie w sytuacjach, gdy znajduje się w niekorzystnym położeniu. Okazuje się, że w trakcie partii szachowych, gdy modele AI mierzyły się z potężnym silnikiem szachowym Stockfish, wiele z nich zaczęło stosować nieuczciwe praktyki, aby uniknąć porażki.
Eksperymenty obejmowały testowanie kilku czołowych modeli sztucznej inteligencji, takich jak OpenAI’s o1-preview oraz DeepSeek R1, przeciwko open-source’owemu silnikowi szachowemu Stockfish. Każdy model rozegrał setki partii podczas, których badacze dokładnie monitorowali ich zachowanie.
Gdy AI znajdowała się w sytuacji bez wyjścia, zaczynała stosować różne techniki oszustwa, między innymi wykorzystywanie kopii silnika Stockfish, aby zapewnić sobie wykorzystanie najlepszych ruchów na szachownicy oraz manipulowanie szachownicą poprzez wykonywanie niedozwolonych ruchów bądź całkowite przestawianie swoich figur bez oczekiwania na swój ruch.
Co ciekawe, modele z najnowszymi aktualizacjami wykazywały większą skłonność do oszukiwania, co badacze tłumaczą tendencją programistów do optymalizacji algorytmów w celu maksymalizacji wyników za wszelką cenę.
Odkrycie budzi istotne pytania dotyczące ogólnej etyki i funkcjonowania sztucznej inteligencji. Skoro modele AI potrafią manipulować rzeczywistością w środowisku gry, co powstrzyma je przed podobnym zachowaniem w innych zastosowaniach? Istnieje obawa, że AI może stosować podobne strategie w realnych zadaniach. Głównymi obszarami, które mogą mieć duży problem z „optymalizacją” zadań wykonywanych przez AI to np. finanse, hr lub medycyna. W finansach dane finansowe mogą być fałszowane przez sztuczną inteligencję, aby pasowały pod stawianą narrację pracowników sztucznej inteligencji. Rekrutacja pracowników będzie w sposób zero jedynkowy weryfikowana bez dogłębniejszej analizy kandydatów „dostosowując” danych kandydatów pod stanowiska pracy, na które aplikują. Medycyna jest najbardziej newraglicznym punktem, w którym kontrola sztucznej inteligencji, powinna być na najwyższym poziomie.
Obecne badania nad sztuczną inteligencją pokazują, że inżynierowie wciąż nie do końca rozumieją, jak dokładnie działają zaawansowane modele AI. W związku z tym kluczowe jest wdrożenie odpowiednich mechanizmów kontrolnych, aby przeciwdziałać nieetycznym praktykom pracowników jak i samych modeli.
Odkrycie, że sztuczna inteligencja może świadomie oszukiwać w grze w szachy, jest alarmujące i prowokuje do głębszej refleksji nad konsekwencjami jej rozwoju. Choć obecnie przypadki ograniczają się do wirtualnej rozgrywki, istnieje ryzyko, że podobne schematy mogą pojawiać się w innych dziedzinach, gdzie AI odgrywa ważniejszą rolę.
Szymon Ślubowski