dr inż. Michał Malinowski

bazy grafowe, cyberbezpieczeństwo, sztuczna inteligencja

Dyrektywa AI Act


Kluczowe Aspekty Sztucznej Inteligewncji w Unii Europejskiej


August 03, 2024

Poziomy Ryzyka Systemów AI według AI Act
Poziomy Ryzyka Systemów AI według AI Act
W obliczu dynamicznego rozwoju technologii sztucznej inteligencji (AI) oraz jej rosnącego wpływu na różne aspekty życia społecznego i gospodarczego, Unia Europejska zdecydowała się na wprowadzenie zharmonizowanych przepisów dotyczących AI. Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689, przyjęte dnia 13 czerwca 2024 r., stanowi kompleksowy zestaw regulacji mających na celu zapewnienie bezpieczeństwa, ochrony danych osobowych oraz praw podstawowych obywateli UE, jednocześnie promując innowacje w sektorze AI.

Cel i Zakres Rozporządzenia

Głównym celem rozporządzenia jest poprawa funkcjonowania rynku wewnętrznego poprzez ustanowienie jednolitych ram prawnych dla rozwoju, wprowadzania do obrotu oraz wykorzystywania systemów AI w Unii Europejskiej. Przepisy te mają na celu promowanie godnej zaufania i zorientowanej na człowieka AI, chroniąc jednocześnie zdrowie, bezpieczeństwo oraz prawa podstawowe, takie jak demokracja, praworządność i ochrona środowiska.
Rozporządzenie koncentruje się głównie na regulacjach dotyczących systemów AI wysokiego ryzyka, które ze względu na swoje zastosowanie mają potencjalnie duży wpływ na życie społeczne i gospodarcze.

Klasyfikacja Systemów AI Wysokiego Ryzyka

Rozporządzenie wprowadza szczegółową klasyfikację systemów AI wysokiego ryzyka. Za systemy takie uznaje się te, które:
  1. Są przeznaczone do wykorzystania jako element bezpieczeństwa produktów podlegających unijnym regulacjom harmonizacyjnym.
  2. Podlegają ocenie zgodności przez stronę trzecią w związku z wprowadzeniem do obrotu lub oddaniem do użytku. 
Poziomy Ryzyka Systemów AI
Rozporządzenie wprowadza klasyfikację systemów AI według poziomów ryzyka, co ma na celu zarządzanie i nadzór nad ich działaniem. Wyróżnia się cztery poziomy ryzyka:
  1. Niedopuszczalne ryzyko:
    Systemy AI, które stanowią wyraźne zagrożenie dla bezpieczeństwa, praw podstawowych lub demokracji, są całkowicie zakazane. Przykłady obejmują systemy manipulacyjne, które wpływają na podejmowanie decyzji przez osoby fizyczne w sposób nieetyczny, takie jak social scoring czy masowa inwigilacja.
  2. Wysokie ryzyko:
    Systemy AI, które mają potencjalnie duży wpływ na życie ludzi i ich prawa, takie jak systemy stosowane w edukacji, zatrudnieniu, służbie zdrowia, egzekwowaniu prawa i zarządzaniu usługami publicznymi. Systemy te podlegają rygorystycznym wymogom w zakresie zarządzania ryzykiem, zarządzania danymi, dokumentacji technicznej, transparentności oraz nadzoru.
  3. Ograniczone ryzyko:
    Systemy AI, które wymagają mniej rygorystycznych środków nadzoru. Przykłady obejmują chatbota, który musi jedynie informować użytkownika, że komunikuje się z AI.
  4. Minimalne ryzyko:
    Większość systemów AI, które nie stanowią znaczącego ryzyka dla użytkowników, takich jak filtry spamu czy gry komputerowe. Dla tych systemów nie są wymagane żadne specjalne wymogi regulacyjne. 

Przykłady Systemów AI Wysokiego Ryzyka:

Systemy AI wysokiego ryzyka obejmują między innymi:
  • Edukacja i szkolenia: Systemy AI, które mogą decydować o dostępie do edukacji i ścieżek kariery zawodowej.
  • Zatrudnienie: Systemy AI stosowane przy rekrutacji, awansach i zwolnieniach pracowników.
  • Ocena kredytowa i ratingowa: Systemy AI stosowane do oceny zdolności kredytowej lub ratingowej.
  • Usługi publiczne i świadczenia: Systemy AI stosowane w zarządzaniu dostępem do usług podstawowych, takich jak ochrona zdrowia, egzekwowanie prawa, zarządzanie migracją i kontrola graniczna.
  • Bezpieczeństwo: Systemy biometryczne do zdalnej identyfikacji osób.

Wymogi dla Systemów AI Wysokiego Ryzyka

Rozporządzenie nakłada na te systemy szereg wymogów, aby zminimalizować potencjalne ryzyka:
  • System zarządzania ryzykiem: Obowiązek identyfikacji, analizy i zarządzania ryzykiem związanym z użytkowaniem systemu.
  • Zarządzanie danymi: Wymogi dotyczące jakości danych, zabezpieczeń i eliminacji błędów.
  • Dokumentacja techniczna: Aktualizowana na bieżąco dokumentacja zawierająca opis systemu, wyniki analizy ryzyka oraz wykaz zastosowanych środków zarządzania ryzykiem.
  • Rejestrowanie zdarzeń: Automatyczne rejestrowanie i przechowywanie danych o zdarzeniach przez co najmniej 10 lat.
  • Transparentność i informacje dla użytkowników: Obowiązek informowania użytkowników o działaniu systemu, jego możliwościach i ograniczeniach, potencjalnych zagrożeniach oraz środkach zarządzania ryzykiem.
  • Nadzór ze strony człowieka: Konieczność zapewnienia możliwości nadzoru przez ludzi.
  • Dokładność, solidność i cyberbezpieczeństwo: Zapewnienie odpowiedniego poziomu dokładności i odporności na błędy oraz ataki cybernetyczne.

Zakazane Praktyki AI

Rozporządzenie wyraźnie zakazuje stosowania systemów AI, które mogą manipulować, wprowadzać w błąd lub wykorzystywać słabości użytkowników. Zakaz obejmuje również systemy kategoryzacji biometrycznej, które mogą dedukować informacje na temat opinii politycznych, przynależności religijnej, orientacji seksualnej itp., oraz systemy scoringu społecznego.

Ramy Czasowe

Rozporządzenie wchodzi w życie dwudziestego dnia po jego opublikowaniu w Dzienniku Urzędowym UE. Stosowanie jego przepisów rozpocznie się w kilku kluczowych etapach:
  • 21 kwietnia 2021: Komisja Europejska proponuje rozporządzenie o AI.
  • 6 grudnia 2022: Rada UE jednogłośnie przyjmuje ogólne podejście do rozporządzenia.
  • 9 grudnia 2023: Negocjatorzy Parlamentu Europejskiego i Prezydencja Rady uzgadniają ostateczną wersję.
  • 2 lutego 2024: Rada Ministrów UE jednogłośnie zatwierdza projekt rozporządzenia.
  • 13 lutego 2024: Komisje parlamentarne zatwierdzają projekt rozporządzenia.
  • 13 marca 2024: Parlament Europejski zatwierdza projekt rozporządzenia.
  • 12 lipca 2024: Publikacja rozporządzenia w Dzienniku Urzędowym Unii Europejskiej.
  • 2 sierpnia 2024: *Wejście w życie rozporządzenia*.
  • 2 lutego 2025: Mają zostać wdrożone przepisy dotyczące ustanowienia podstawowych definicji i zakresu stosowania rozporządzenia oraz przepisy dotyczące klasyfikacji i oceny zgodności systemów AI wysokiego ryzyka, co umożliwi producentom rozpoczęcie przygotowań do pełnego stosowania wymogów technicznych i operacyjnych..
  • 2 maja 2025: Zastosowanie kodeksów postępowania.
  • 2 sierpnia 2025: Obowiązywanie zasad zarządzania i obowiązków dla ogólnego zastosowania AI (GPAI).
  • 2 sierpnia 2026: Rozpoczęcie stosowania przepisów EU AI Act dla systemów AI (w tym załącznik III).
  • 2 sierpnia 2027: Stosowanie całego EU AI Act dla wszystkich kategorii ryzyka (w tym załącznik II).
Ponadto, do dnia 2 sierpnia 2031 r. Komisja Europejska przeprowadzi ocenę egzekwowania rozporządzenia i przedłoży sprawozdanie Parlamentowi Europejskiemu, Radzie oraz Europejskiemu Komitetowi Ekonomiczno-Społecznemu.

Podsumowanie

Rozporządzenie 2024/1689 stanowi ważny krok w kierunku regulacji szybko rozwijającej się dziedziny sztucznej inteligencji. Ustanawiając jednolite ramy prawne, Unia Europejska dąży do zapewnienia bezpieczeństwa i ochrony praw obywateli, jednocześnie wspierając innowacje i rozwój technologiczny w sektorze AI. Systemy AI wysokiego ryzyka, objęte szczegółowymi wymogami, będą musiały spełniać wysokie standardy jakości, bezpieczeństwa i ochrony danych, co przyczyni się do zwiększenia zaufania społecznego do nowoczesnych technologii. 
Działania do podjęcia w ramach wdrożenia AI Act
Działania do podjęcia w ramach wdrożenia AI Act
#AI #SztucznaInteligencja #RegulacjeUE #RozporządzenieAI #BezpieczeństwoAI #OchronaDanych #Cyberbezpieczeństwo 

Share



Follow this website


You need to create an Owlstown account to follow this website.


Sign up

Already an Owlstown member?

Log in