Projekt ustawy o systemach sztucznej inteligencji (AI) w Polsce stanowi odpowiedź na konieczność implementacji rozporządzenia Parlamentu Europejskiego i Rady (UE) 2024/1689, znanego jako AI Act. To kompleksowe europejskie ramy prawne dotyczące rozwoju i zastosowania sztucznej inteligencji, których celem jest ujednolicenie zasad związanych z bezpieczeństwem, ochroną zdrowia oraz przestrzeganiem praw człowieka przy jednoczesnym wspieraniu innowacji. Wprowadzenie tej ustawy w Polsce ma kluczowe znaczenie dla stworzenia solidnego systemu nadzoru i wsparcia rozwoju AI, umożliwiając jednocześnie integrację polskiego rynku AI z unijnymi regulacjami.
Wprowadzenie ustawy jest zgodne z harmonogramem wdrożenia AI Act, a jej zapisy mają wejść w życie etapami, począwszy od lutego 2025 roku, z pełnym wdrożeniem do sierpnia 2027 roku. Polska ustawa ma z jednej strony chronić społeczeństwo przed potencjalnymi zagrożeniami związanymi z AI, a z drugiej strony promować rozwój tej technologii, wspierając jednocześnie przedsiębiorstwa, w tym startupy, w tworzeniu innowacyjnych rozwiązań.
Kluczowe założenia projektu ustawy
W ramach ustawy o systemach AI przewidziano liczne rozwiązania prawne i organizacyjne, które mają na celu skuteczny nadzór nad rynkiem sztucznej inteligencji, a także wsparcie dla rozwoju tej technologii. Oto najważniejsze z nich:
-
Powołanie Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji
Jednym z kluczowych elementów ustawy jest powołanie niezależnej Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji. Komisja ta będzie odpowiedzialna za nadzór nad systemami AI w Polsce, monitorowanie zgodności z przepisami unijnymi oraz wspieranie rozwoju sektora sztucznej inteligencji. Komisja pełni również funkcję centralnego punktu kontaktowego, co ułatwi współpracę z instytucjami unijnymi i krajowymi w zakresie nadzoru nad AI.
-
Rada Społeczna ds. Sztucznej Inteligencji
W ramach Komisji powołana zostanie także Rada Społeczna, której rolą będzie doradzanie i opiniowanie działań związanych z AI. Rada będzie składała się z przedstawicieli różnych środowisk – NGO, związków zawodowych, przedsiębiorców, a jej zadaniem będzie monitorowanie wpływu AI na społeczeństwo oraz współpraca z różnymi interesariuszami w celu optymalizacji rozwiązań prawnych.
-
Nadzór nad systemami wysokiego ryzyka
Zgodnie z przepisami AI Act, projekt ustawy przewiduje wprowadzenie szczególnych regulacji dotyczących systemów AI wysokiego ryzyka, które mogą stwarzać potencjalne zagrożenia dla zdrowia, bezpieczeństwa czy praw człowieka. Systemy te będą podlegały ścisłemu nadzorowi, a ich stosowanie będzie regulowane na poziomie krajowym przez Komisję. Wprowadzenie tych przepisów ma na celu minimalizację ryzyka związanego z AI, szczególnie w kontekście ochrony konsumentów.
-
System sankcji i kar administracyjnych
Ustawa przewiduje także mechanizmy sankcji, które będą nakładane na podmioty nieprzestrzegające przepisów dotyczących AI. Komisja będzie mogła nakładać administracyjne kary finansowe za naruszenia przepisów, w tym za stosowanie zakazanych systemów AI. System ten ma na celu zapewnienie skuteczności egzekwowania nowych regulacji oraz zwiększenie odpowiedzialności podmiotów zajmujących się rozwojem i wdrażaniem sztucznej inteligencji.
-
Interpretacje prawne i rekomendacje
W celu zapewnienia jasności prawnej i stabilności w funkcjonowaniu rynku AI, Komisja będzie odpowiedzialna za wydawanie interpretacji prawnych – zarówno generalnych, jak i indywidualnych. Dzięki temu firmy będą mogły uzyskać wytyczne dotyczące zgodności swoich działań z przepisami, co ma zwiększyć pewność prawną i przewidywalność ich funkcjonowania na rynku. Ponadto, coroczne raporty będą zawierały rekomendacje najlepszych praktyk w zakresie wdrażania i stosowania AI.
-
Wspieranie innowacyjności i rozwoju AI
Projekt ustawy kładzie duży nacisk na wspieranie innowacyjności, szczególnie w sektorze małych i średnich przedsiębiorstw (MŚP) oraz startupów. W tym celu przewidziano różnorodne działania promujące rozwój nowych technologii AI, w tym wsparcie dla tworzenia piaskownic regulacyjnych, które pozwolą na bezpieczne testowanie nowych rozwiązań. Polska ustawa ma na celu stworzenie warunków, które ułatwią przedsiębiorstwom rozwijanie innowacyjnych produktów i usług opartych na AI.
-
Bezpieczeństwo danych i ochrona praw podstawowych
Wprowadzone przepisy kładą również nacisk na ochronę danych osobowych i praw podstawowych, zgodnie z Kartą Praw Podstawowych Unii Europejskiej. Systemy AI będą musiały być projektowane i wdrażane w taki sposób, aby zapewnić wysokie standardy ochrony prywatności i bezpieczeństwa, a jednocześnie minimalizować ryzyko naruszeń praw człowieka.
Kluczowe terminy wdrożenia ustawy
Implementacja przepisów ustawy o systemach AI będzie przebiegała etapami, zgodnie z harmonogramem AI Act. Kluczowe terminy to:
-
2 lutego 2025 r. – data wejścia w życie przepisów dotyczących systemów zakazanych, które będą regulować zakazy stosowania niektórych systemów AI stwarzających poważne ryzyko dla zdrowia, bezpieczeństwa i praw podstawowych.
-
2 sierpnia 2027 r. – ostateczny termin pełnej implementacji wszystkich przepisów dotyczących nadzoru, notyfikacji oraz kar administracyjnych.
Podsumowanie
Projekt ustawy o systemach sztucznej inteligencji w Polsce stanowi kluczowy element wdrażania unijnego AI Act, który ma na celu stworzenie bezpiecznego, transparentnego i innowacyjnego środowiska dla rozwoju AI. Ustawa wprowadza nowe mechanizmy nadzoru, wspiera innowacje, a także promuje bezpieczeństwo i ochronę praw obywatelskich w kontekście dynamicznie rozwijającej się technologii sztucznej inteligencji. Wprowadzenie tych regulacji w życie ma na celu nie tylko ochronę społeczeństwa przed potencjalnymi zagrożeniami AI, ale także wsparcie dla przedsiębiorców, umożliwiając im rozwój w bezpiecznym i przewidywalnym środowisku prawnym.