Gemini AI błędnie ukazuje zróźnicowanie etniczne
Gemini AI w nieodpowiedni sposób zinterpretowało zróźnicowanie etniczne występujące na naszym świecie, obrażając niektóre grupy etniczne.
Na przestrzeni ostatnich lat, ewolucja sztucznej inteligencji (AI) wykonała znaczące postępy, prowadząc nas do punktu, gdzie jej możliwości wydają się być powoli nieograniczone. Ta historia jest pełna epizodów, które równie fascynują, co niepokoją, a niedawne wydarzenie związane z aplikacją AI Google Gemini stanowi kolejny rozdział w tej narracji. Kontrowersja wzbudzona przez aplikację, która niewłaściwie przedstawiła obrazy osób o różnym pochodzeniu etnicznym, skłania do głębszej refleksji nad potęgą, jaką duże korporacje technologiczne trzymają w swoich rękach, i sposobem, w jaki sztuczna inteligencja może kształtować naszą rzeczywistość.
Omyłkowe przedstawienie przez Google Gemini czarnoskórych i azjatyckich osób jako nazistowskich żołnierzy wywołało oburzenie i stało się przestrogą dla społeczności globalnej. Sundar Pichai, dyrektor generalny Google, szybko zajął stanowisko, określając błędy aplikacji jako „całkowicie niedopuszczalne”. To wydarzenie uwydatniło nie tylko wadliwe obrazy generowane przez AI, ale również rozpoczęło debatę na temat nadmiernego wpływu, jaki giganci technologiczni posiadają nad kształtowaniem naszego świata za pomocą sztucznej inteligencji.
Co interesujące, na festiwalu South by Southwest w Austin, gdzie technologia przeplata się ze sztuką, błąd Gemini był tematem gorących dyskusji. Wypowiedzi uczestników odzwierciedlały obawy dotyczące monopolu na AI, który wydaje się koncentrować w rękach niewielu firm. Uderza w tym kontekście opinia prawnika i przedsiębiorcy technologicznego, Joshuy Weavera, który zauważył, że wypadki takie jak ten z Gemini, sygnalizują niebezpieczeństwo zbytniego pośpiechu w integracji i różnorodności, co Google mogło nadinterpretować w swoich wysiłkach.
Niezależnie od szybkiej reakcji Google na krytykę, wskazując na wdrożenie poprawek, problem podstawowy pozostał. Porównanie naprawy aplikacji do nałożenia plastra na ranę postrzałową, które użył Charlie Burgoyne, dyrektor naczelny laboratorium Valkyrie, uwydatnia długotrwałe wyzwania stojące przed AI w kontekście etycznym i społecznym. W tym świetle, debata na temat sztucznej inteligencji przenosi się na grunt bardziej złożony, obejmujący nie tylko techniczne aspekty jej rozwoju, ale również kulturowe i społeczne implikacje.
Punktem zapalnym stała się także kwestia uprzedzeń (ang. bias), zarówno tych wprowadzanych do AI, jak i wynikających z jej użycia. Przykład przyszłej robo-taksówki, która na podstawie analizy danych miałaby decydować o dalszych losach pasażera, jest nie tylko przerażający, ale i realny w świetle obecnych trendów. To przypomnienie, że AI jest szkolona na podstawie istniejących danych, które nie są wolne od uprzedzeń kulturowych, dezinformacji i nierówności.
Warto zauważyć, że próby Google, aby zrównoważyć algorytmy w aplikacji Gemini, aby lepiej odzwierciedlały ludzką różnorodność, przyniosły odwrotne skutki. Wskazuje to na złożoność problemu uprzedzeń w AI, gdzie nawet dobre intencje mogą prowadzić do nieprzewidzianych konsekwencji. Dyskusja o „czarnych skrzynkach”, czyli nieprzejrzystości w działaniu algorytmów generatywnych, dodatkowo komplikuje obraz, utrudniając zrozumienie i kontrolę nad potencjalnymi uprzedzeniami.
Apel o większą różnorodność w zespołach pracujących nad AI i przejrzystość w jej działaniu jest głosem rozsądku w debacie o przyszłości sztucznej inteligencji. Jak podkreśla Jason Lewis z Indigenous Futures Resource Center, ważne jest, aby do projektowania algorytmów włączyć perspektywy różnych społeczności, co może pomóc w zmniejszeniu ryzyka niechcianych uprzedzeń.
Kontrowersja wokół aplikacji Gemini AI Google rzuca światło na szereg wyzwań stojących przed sztuczną inteligencją i jej twórcami. Od odpowiedzialności za generowane przez nią obrazy, przez ryzyko wzmacniania istniejących uprzedzeń, aż po potrzebę etycznego i społecznie świadomego podejścia do jej rozwoju. Ta historia, choć konkretna, jest przestrogą dla całej branży technologicznej, przypominającą o potrzebie równowagi między innowacją a odpowiedzialnością.
Szymon Ślubowski