metoda „oduczania się”

Metoda „oduczania się” rozwiązaniem problematycznych treści

Metoda „oduczania się” pokazuję w jaki sposób sztuczna inteligencja może selekcjonować treści ze swojej bazy danych.

W obliczu dynamicznego postępu w dziedzinie sztucznej inteligencji (AI), badacze z Uniwersytetu Teksasu w Austin zrewolucjonizowali sposób, w jaki AI może radzić sobie z problematycznymi treściami. Opracowali oni innowacyjną metodę „oduczania” maszynowego dla generatywnej sztucznej inteligencji, która pozwala programom „zapomnieć” o danych naruszających prawa autorskie lub zawierających przemoc. Ta przełomowa technika, opisana w pracy opublikowanej na platformie arXiv, otwiera nowe horyzonty dla odpowiedzialnego wykorzystania danych w AI.

Tradycyjnie, eliminacja niechcianych informacji z modeli AI była procesem żmudnym i kosztownym, wymagającym całkowitego restartu i ręcznego oczyszczania danych. Metoda zaproponowana przez zespół Radu Marculescu, profesora inżynierii elektrotechnicznej i komputerowej, umożliwia precyzyjne usuwanie danych bez konieczności ponownego trenowania modelu od podstaw. To ulepszenie sprawia, że proces jest bardziej wydajny i mniej czasochłonny, co jest znaczącym postępem w zarządzaniu danymi.

W kontekście rosnącej świadomości na temat ochrony danych osobowych i praw autorskich, problem niepożądanych treści w modelach AI stał się bardziej widoczny, zwłaszcza po głośnym pozwie wniesionym przez „The New York Times” przeciwko firmie OpenAI za używanie treści gazety do trenowania ChatGPT bez odpowiednich uprawnień. W odpowiedzi na te wyzwania, nowa technika „oduczania” oferuje rozwiązanie, które umożliwia AI aktywne blokowanie i usuwanie treści naruszających, bez negatywnego wpływu na resztę modelu.

Modeli generatywnej sztucznej inteligencji uczono głównie przy użyciu dostępnych w internecie zbiorów danych ze względu na ich bogactwo informacji. Jednak oprócz cennych danych, internet zawiera również treści nieodpowiednie lub chronione prawem autorskim. Nowa metoda „oduczania” pozwala modelom AI na selektywne „zapominanie” takich informacji, jednocześnie zachowując swoją zdolność do generowania wartościowych treści.

Algorytm ten koncentruje się na modelach „obraz do obrazu”, które przekształcają obrazy wejściowe w oparciu o specyficzne polecenia, tworząc na przykład szkice lub zmieniając sceny. Zastosowanie „oduczania” pozwala modelom AI usuwać treści oznaczone jako niepożądane, bez konieczności resetowania całego procesu trenowania.

Zespół podkreśla, że zastosowanie „oduczania” do modeli generatywnych jest obszarem mało zbadanym, zwłaszcza w kontekście obrazów. Do tej pory skupiano się głównie na modelach klasyfikacyjnych, które sortują dane według kategorii. Rozszerzenie tej metody na generatywne modele AI otwiera nowe możliwości dla sektora, umożliwiając tworzenie bardziej etycznych i odpowiedzialnych systemów.

Opracowanie tej metody stanowi kluczowy krok w kierunku zapewnienia, że generatywne modele AI mogą być wykorzystywane w sposób komercyjny, jednocześnie respektując prawa autorskie, unikając nadużywania danych osobowych i eliminując szkodliwe treści. Poprzez umożliwienie modelom AI „zapominania” o niepożądanych danych, badacze z Uniwersytetu Teksasu w Austin oferują rozwiązanie, które może przyczynić się do tworzenia bezpieczniejszych, bardziej niezawodnych i odpowiedzialnych technologii sztucznej inteligencji.

Szymon Ślubowski

SUBSKRYBUJ „GAZETĘ NA NIEDZIELĘ” Oferta ograniczona: subskrypcja bezpłatna do 31.08.2024.

Strona wykorzystuje pliki cookie w celach użytkowych oraz do monitorowania ruchu. Przeczytaj regulamin serwisu.

Zgadzam się