AI

Sztuczna inteligecja (AI) i prawo Unii Europejskiej

Delegaci krajów należących do Unii Europejskiej wyrazili swoje poparcie dla inicjatywy w Brukseli, która ma na celu objęcie sztucznej inteligencji (AI) bardziej surowymi przepisami. Marco Buschmann, niemiecki minister sprawiedliwości, postrzega to wydarzenie jako korzystne dla postępu technologicznego oraz ochrony praw podstawowych w Europie, wskazując na otwarcie ścieżki do stworzenia bezpiecznych ram prawnych.

W obliczu rosnącego rozwoju sztucznej inteligencji, pojawia się coraz więcej luk w istniejących ramach prawnych, szczególnie w aspektach etycznych i ochrony danych osobowych. Postęp w dziedzinie uczenia maszynowego i analizy dużych zbiorów danych rodzi pytania dotyczące prywatności i etycznego wykorzystania informacji. To dotyczy zarówno komercyjnych aplikacji AI, jak i badań akademickich.

Brak jasnych regulacji jest również zauważalny w obszarze zautomatyzowanego podejmowania decyzji i profilowania, co ma szczególne znaczenie w rekrutacji, usługach finansowych i kredytowych. Decyzje podjęte przez algorytmy mogą mieć bezpośredni wpływ na życie osób, a nieprzejrzystość i brak możliwości odwołania się od tych decyzji budzą obawy o sprawiedliwość i równość.

Wyzwania prawne napotykają także autonomiczne pojazdy, szczególnie w kontekście odpowiedzialności za wypadki. Dyskusje trwają nad tym, kto powinien ponosić odpowiedzialność – producent pojazdu, operator systemu AI, czy pojazd jako „osobowość elektroniczna”.

W sektorze medycznym, gdzie sztuczna inteligencja wspomaga diagnostykę i decyzje terapeutyczne, kluczowe jest uwzględnienie dokładności, odpowiedzialności oraz możliwości zrozumienia przez pacjentów podstaw decyzji medycznych opierających się na AI.

Po długich negocjacjach, przedstawiciele Parlamentu Europejskiego i państw członkowskich UE osiągnęli konsensus w kwestii regulacji sztucznej inteligencji, z czego formalne zatwierdzenie było uważane za kwestię techniczną, mimo wcześniejszych wątpliwości dotyczących stanowiska Niemiec.

Przyszłe prawo UE, które opiera się na projekcie zaproponowanym przez Komisję Europejską w 2021 roku, zakłada klasyfikację systemów AI według poziomu ryzyka, gdzie wyższe ryzyko będzie wiązało się z surowszymi wymaganiami. Istnieje nadzieja na przyjęcie tych zasad globalnie.

CCIA Europe (Computer & Communications Industry Association) wyraziło krytykę, twierdząc, że nowe regulacje mogą być niejasne i potencjalnie opóźniać rozwój innowacyjnych aplikacji AI w Europie. Z drugiej strony, niemiecki minister gospodarki, Robert Habeck, podkreślił, że celem jest stworzenie ram przyjaznych dla innowacji, zapewniających jasność prawną dla przedsiębiorstw i unikających nadmiernej biurokracji, aby umocnić pozycję sztucznej inteligencji w Europie.

AI jest powszechnie wykorzystywane w wielu dziedzinach, w tym w diagnostyce medycznej, autonomicznych pojazdach i usługach cyfrowych, takich jak chatboty czy playlisty muzyczne. To porozumienie ma szansę zmienić podejście Europy do sztucznej inteligencji, stawiając innowacje i ochronę praw obywatelskich na pierwszym miejscu, co może wpłynąć na globalne podejście do technologii.

Szymon Ślubowski

SUBSKRYBUJ „GAZETĘ NA NIEDZIELĘ” Oferta ograniczona: subskrypcja bezpłatna do 31.03.2024.

Strona wykorzystuje pliki cookie w celach użytkowych oraz do monitorowania ruchu. Przeczytaj regulamin serwisu.

Zgadzam się