Sztuczna inteligencja (z języka angielskiego: Artificial Intelligence, „AI”) to temat niezwykle obszerny. Coraz częściej jest on szeroko omawiany w sferze naukowej, publicystycznej oraz politycznej. Rozwój systemów sztucznej inteligencji ma istotne znaczenie na całym świecie, ponieważ sztuczna inteligencja może przynieść wiele korzyści w sferze gospodarczej, społecznej, a także w dziedzinie środowiska, zdrowia, finansów i mobilności.
Dynamiczny rozwój systemów sztucznej inteligencji powoduje konieczność stworzenia ujednoliconego systemu prawnego, dzięki któremu dalszy, prawidłowy rozwój sztucznej inteligencji będzie możliwy, a tym samym zapewni ochronę osób, które z niej korzystają. Czy zatem utworzenie takiego ujednoliconego systemu prawnego jest w ogóle możliwe? Czy powstały już jakieś akty prawne regulujące sztuczną inteligencję? Jeśli chcesz dowiedzieć się jak „to widzi” USA i UE, to zapraszam do przeczytania naszego artykułu!
5 października 2022 r. Biały Dom ujawnił dokument, potocznie nazywany „Kartą praw AI”, który ma na celu ustalenie zasad dotyczących wdrażania algorytmów sztucznej inteligencji oraz barier ochronnych dla ich aplikacji. Wspomniany dokument został opracowany na podstawie opinii publicznej i potentatów w branży informatycznej – firmy Microsoft i Palantir, a także grup zajmujących się prawami człowieka i sztuczną inteligencją.
Zdaniem Office of Science & Technology Policy (OSTP) – twórcy sztucznej inteligencji, Karta praw AI doprowadzi do uzyskania znacznie lepszych wyników działania systemów sztucznej inteligencji, przy jednoczesnym zminimalizowaniu szkodliwych konsekwencji dla życia codziennego. Karta praw AI postuluje, aby systemy sztucznej inteligencji były bezpieczne i skuteczne, wykonywanie testów i konsultacji z zainteresowanymi podmiotami. Do tej pory ograniczano się wyłącznie do monitorowania systemów produkcji, zamiast udoskonalać je w oparciu o potrzeby zainteresowanych grup.
Co ciekawe, Karta praw AI wyraźnie neguje system algorytmów, na którym opiera się mechanizm działania sztucznej inteligencji. Jednym głównych założeń Karty praw AI jest zaprojektowanie systemów sztucznej inteligencji w taki sposób, aby chronić społeczeństwo i dane jednostki przed stronniczym podejmowaniem decyzji przez podmioty odpowiedzialne za konstruowanie określonych algorytmów. Co więcej, użytkownicy powinni mieć „wolną rękę” jeżeli chodzi o rezygnację z systemu AI np. w przypadku awarii sytemu. Dodatkowo plan Białego Domu zakłada, że każdy użytkownik sztucznej inteligencji powinien mieć wpływ na wykorzystywanie jego danych – zarówno przy podejmowaniu decyzji, jak również w odniesieniu do samego systemu SI.
Zdaniem OSTP dotychczas miało miejsce wiele incydentów z udziałem algorytmów, które tylko utwierdzają w przekonaniu, że trzeba wprowadzić pewnie zmiany. Konieczne jest ujednolicenie SI, tak aby zminimalizować występowanie negatywnych konsekwencji dla podmiotów korzystających z systemów sztucznej inteligencji.
Dla przykładu, modele algorytmów wykorzystywane w szpitalach, służące do informowania pacjentów o ich leczeniu okazały się, delikatnie mówiąc, dyskryminujące. Nieprawidłowe działanie algorytmów zostało także zauważone przy przeprowadzaniu rekrutacji w wielu miejscach pracy – narzędzie mające na celu wyłonienie potencjalnych pracowników w rzeczywistości automatycznie odrzucało kandydatki na rzecz kandydatów. Dlaczego? Bo właśnie w takim celu został zaprojektowany algorytm tego narzędzia.
Idąc dalej, wraz z wydaniem Karty praw AI, Biały Dom ogłosił, że m. in. Departament Zdrowia
i Opieki Społecznej, jak również Departament Edukacji, będą musiały opublikować w nadchodzących miesiącach założenia, których celem ma być ograniczenie negatywnych konsekwencji zastosowania szkodliwych algorytmów. Jednak kroki te nie do końca pokrywają się z założeniami rozporządzenia UE, które wprost zakazuje i ogranicza niektóre kategorie sztucznej inteligencji. Zatem jaki pomysł na ujednolicenie działania systemów sztucznej inteligencji ma UE? Już wyjaśniam!
Nie tylko w USA sporo się dzieje w temacie sztucznej inteligencji. UE w kwietniu 2021 r. opublikowała propozycję tzw. „Aktu w sprawie SI”, który nie został przyjęty z oczekiwanym entuzjazmem. Z całą pewnością, ze względu na swój nowatorski charakter, Akt ma potencjał, który mógł być uznany za „wiodący”, nie tylko w Europie, ale również na świecie. Dlaczego? Akt w sprawie SI jako pierwszy na świecie próbuje kompleksowo uregulować mechanizm działania systemów sztucznej inteligencji i ich zastosowań. Choć pracę nad nim wciąż trwają, wydaje się, że jego główne założenia pozostaną bez zmian.
To co przede wszystkim odróżnia Akt UE od postulowanego w USA, to kompleksowe uregulowanie takich kwestii jak:
– zakres podmiotowy – a więc kogo i w jakich sytuacjach będzie dotyczyć nowa regulacja,
– podejście oparte na analizie ryzyka,
– prawa osób poddanych działaniu sztucznej inteligencji.
Zakres podmiotowy
Zaproponowane przez UE rozporządzenie ma znaleźć zastosowanie w odniesieniu do m. in.:
Jak widzisz, zakres zastosowania rozporządzenia jest naprawdę szeroki. Wynika z niego m. in., że system SI będzie podlegał unijnym regulacjom – nawet wtedy, kiedy będzie tylko rozwijany w państwie trzecim na zlecenie, na przykład operatora mającego siedzibę w UE albo przez operatora mającego siedzibę w jakimś państwie trzecim, w zakresie w jakim wyniki działania systemu będą wykorzystywane w UE.
Podejście oparte na analizie ryzyka
Jest to zdecydowanie jedno z najważniejszych rozwiązań rozporządzenia unijnego. Podejście oparte na analizie ryzyka (z ang. risk-based approach), zawarte zostało np. w słynnym RODO.
No dobrze, ale o co chodzi z tym podejściem? Założenie rozporządzenia jest takie, że obowiązkom i ograniczeniom będą podlegały tylko takie systemy SI, których wykorzystywanie będzie wiązać się z określonym poziomem ryzyka dla praw, zdrowia i bezpieczeństwa osób fizycznych, które z tych systemów będą korzystać.
Akt w sprawie SI dzieli systemy SI na te które stwarzają:
Jak wskazałem powyżej, ograniczeniom będą podlegały tylko systemy SI zakwalifikowane do grupy niedopuszczalnego ryzyka, wysokiego ryzyka i ograniczonego ryzyka. W przypadku pierwszej grupy – niedopuszczalnego ryzyka, ustawodawcy chodzi o systemy SI, których wykorzystywanie stwarza zagrożenie dla praw, zdrowia i bezpieczeństwa osób fizycznych. Dla tej grupy przewidziany jest całkowity zakaz praktyk.
Systemy wysokiego ryzyka, do których według projektu zalicza się m. in. systemy biometryczne, ściganie przestępstw, sprawowanie wymiaru sprawiedliwości czy ochrona środowiska, muszą spełniać szereg wymogów, a dostawcy tychże systemów muszą wypełniać określone obowiązki wskazane w projekcie.
Z kolei systemy ograniczonego ryzyka, czyli te, które wchodzą w interakcje z ludźmi, służą do rozpoznawania emocji, generowania lub manipulowania zawartościami audio/wideo objęte zostały obowiązkami dotyczącymi przejrzystości i informacyjnymi.
Powyższe z pewnością stawia nie lada wyzwanie dla przedsiębiorców, którzy przed wdrożeniem danego systemu SI, będą musieli przeprowadzić rzetelną analizę jego działania. Nie będzie to łatwe zadanie, dlatego pomoc specjalistów z zakresu nowych technologii, będzie niezbędna dla oceny i analizy ryzyka.
Prawa osób poddanych działaniu sztucznej inteligencji
Kolejną istotną zmianą zaproponowaną w projekcie sprawozdania Komisji IMCO i LIBE w Parlamencie Europejskim z dnia 20 kwietnia 2022 r. jest określenie praw dla osób fizycznych lub grup osób, które są poddane działaniom systemów SI.
Zmiana zakłada, że w przypadku naruszenia praw, zdrowia czy też bezpieczeństwa użytkownika, będzie on mógł wnieść skargę na dostawców lub użytkowników systemu do krajowego organu nadzoru państwa członkowskiego. Dodatkowo będzie przysługiwało mu prawo do bycia wysłuchanym w ramach procedury rozpatrywania skargi, a także prawo do skorzystania ze środka odwoławczego od decyzji wydanej w jego sprawie przez krajowy organ nadzoru.
Jak widać systemy SI, oprócz tego, że mają ogromny potencjał i są istotne dla rozwoju na wielu płaszczyznach, to stanowią nie lada wyzwanie dla ustawodawstwa, które próbuje złożyć je w jeden system prawny. Niemniej, to dobry znak, że próby ujednolicenia zasad działania i mechanizmów SI są podejmowane. To pokazuje, że oprócz sporych korzyści, że sztuczną inteligencją wiąże się wiele ryzykownych i nie do końca bezpiecznych aspektów. Przedstawione przeze mnie modele, postulowane przez USA i UE, różnią się od siebie i wymagają jeszcze dopracowania. Nie jest to zadanie łatwe, ale z pewnością absolutnie konieczne.