ChatGPT

ChatGPT nie dla wszystkich – uprzedzenia i ograniczenia geograficzne AI

W obliczu rosnącego zapotrzebowania na zaawansowane technologie sztucznej inteligencji (AI), badacze z Virginia Tech skoncentrowali swoje badania na wykrywaniu ograniczeń i uprzedzeń geograficznych w modelach generatywnych AI, takich jak ChatGPT.

Zespół naukowców pod kierunkiem asystenta profesora Junghwana Kima z College of Natural Resources and Environment zbadał, w jaki sposób ChatGPT radzi sobie z dostarczaniem informacji specyficznych dla danej lokalizacji. Badanie zostało opublikowane w czasopiśmie „Telematics and Informatics”.

Sprawiedliwość środowiskowa to koncepcja zapewniająca równy dostęp do korzyści i obowiązków związanych ze środowiskiem, bez względu na pochodzenie etniczne, dochód czy status społeczny. Jest to podejście mające na celu sprawiedliwe traktowanie wszystkich społeczności w kwestiach ekologicznych, chroniące przed dyskryminacją w zarządzaniu zasobami naturalnymi i środowiskiem. Badanie przeprowadzone przez Virginia Tech wskazało na ograniczenia ChatGPT, w dostarczaniu precyzyjnych, lokalnych informacji, co rzuca nowe światło na uniwersalność i wszechstronność tego modelu sztucznej inteligencji. Koncentrując się na kwestiach sprawiedliwości środowiskowej, naukowcy zdecydowali się zbadać, jak model radzi sobie z dostarczaniem informacji specyficznych dla różnych amerykańskich hrabstw, co jest kluczowe w kontekście zapewnienia równego dostępu do czystego środowiska i zasobów naturalnych oraz uczciwego podziału środowiskowych obciążeń.

W badaniu, które objęło 3 108 hrabstw w USA, ChatGPT był testowany pod kątem swojej zdolności do dostarczania specyficznych informacji dotyczących sprawiedliwości środowiskowej dla każdego z nich. Niestety, tylko 17 proc. z nich otrzymało odpowiedzi dostosowane do lokalizacji, co wskazuje na istotne ograniczenia modelu w kontekście geograficznym. W szczególności, w hrabstwach wiejskich, jak Idaho czy New Hampshire, większość populacji nie otrzymała lokalnych informacji, podczas gdy w stanach o większych populacjach miejskich, jak Delaware czy Kalifornia, sytuacja była lepsza.

Te wyniki rzucają światło na potencjalne uprzedzenia geograficzne ChatGPT i podkreślają potrzebę dokładniejszego testowania i doskonalenia takich modeli. Junghwan Kim podkreśla, że te uprzedzenia mogą mieć znaczący wpływ na jakość i wiarygodność informacji dostarczanych przez AI. Ponadto, badanie sugeruje, że aby generatywne AI, takie jak ChatGPT, były bardziej efektywne i użyteczne, muszą być odpowiednio dostosowane do lokalnych i kontekstowych potrzeb użytkowników.

Ismini Lourentzou, współautorka badania, zwraca uwagę na konieczność dalszych badań nad modelami językowymi. W szczególności, ważne jest opracowanie narzędzi umożliwiających AI lepsze rozumienie lokalnych kontekstów i zmniejszenie uprzedzeń geograficznych. Istotne jest również zapewnienie, by te modele były zabezpieczone przed trudnymi scenariuszami, jak niejednoznaczne instrukcje czy opinie użytkowników oraz zwiększenie świadomości użytkowników o mocnych i słabych stronach AI, szczególnie w kontekście wrażliwych tematów.

Badanie z Virginia Tech stanowi ważny krok w kierunku zrozumienia i poprawy wydajności generatywnych modeli sztucznej inteligencji, jak ChatGPT. Ujawnia ono istotne ograniczenia, które mogą wpływać na jakość i wiarygodność informacji dostarczanych przez te narzędzia. W miarę jak technologia autonomicznej jazdy rozwija się, konieczne jest zrozumienie wszystkich jej konsekwencji, aby zapewnić bezpieczeństwo i odpowiedzialność w przyszłości.

Szymon Ślubowski

SUBSKRYBUJ „GAZETĘ NA NIEDZIELĘ” Oferta ograniczona: subskrypcja bezpłatna do 31.08.2024.

Strona wykorzystuje pliki cookie w celach użytkowych oraz do monitorowania ruchu. Przeczytaj regulamin serwisu.

Zgadzam się