Rozporządzenie UE w sprawie sztucznej inteligencji wchodzi w życie w sierpniu 2024 r
W odpowiedzi na pierwszą propozycję Komisji Europejskiej w kwietniu 2021 r. Parlament Europejski przyjął rozporządzenie UE w sprawie sztucznej inteligencji. Tekst ten został opublikowany w Dzienniku Urzędowym Unii Europejskiej w lipcu 2024 r. i jest obecnie dostępny we wszystkich 24 językach urzędowych państw członkowskich UE. Rozporządzenie oficjalnie wejdzie w życie w sierpniu 2024 r., choć większość przepisów będzie obowiązywać dopiero dwa lata później. Dla poszczególnych przepisów obowiązują jednak inne terminy. Rozporządzenie nakłada obowiązki na firmy, które opracowują i/lub wykorzystują systemy sztucznej inteligencji na terenie Unii Europejskiej.
Harmonogram regulacji UE dotyczących sztucznej inteligencji
Rozporządzenie UE w sprawie sztucznej inteligencji zostanie opracowane i wdrożone zgodnie z następującym harmonogramem:
Kwiecień 2021: Pierwsza propozycja Komisji Europejskiej
Marzec 2024 r.: Przyjęty przez Parlament Europejski
Lipiec 2024 r.: Oficjalna publikacja w Dzienniku Urzędowym UE
Sierpień 2024: Rozporządzenie wchodzi w życie
Połowa 2025 r.: Pełne wdrożenie we wszystkich państwach członkowskich UE
Czym jest europejskie rozporządzenie w sprawie sztucznej inteligencji?
Europejska ustawa o sztucznej inteligencji 2024 to rozporządzenie Komisji Europejskiej, które ma na celu zapewnienie, że systemy sztucznej inteligencji będą wykorzystywane w sposób „bezpieczny, przejrzysty, identyfikowalny, niedyskryminujący i przyjazny dla środowiska” . Rozporządzenie ma na celu uregulowanie sposobu, w jaki „dostawcy” i „operatorzy” systemów AI mogą odpowiednio obsługiwać systemy AI zgodnie z stwarzanym przez nie ryzykiem. „Dostawcą” systemów AI jest w najszerszym znaczeniu firma oferująca lub rozwijająca system AI pod własną marką. Operatorzy to ci, którzy korzystają z technologii AI. Dlatego każda firma może należeć do tej grupy. Im wyższe ryzyko systemu AI, tym surowsze wymagania regulacyjne.
Niektóre kluczowe punkty unijnego prawa dotyczącego sztucznej inteligencji
- Klasyfikacja oparta na ryzyku: Ustawa o sztucznej inteligencji klasyfikuje systemy sztucznej inteligencji na różne poziomy ryzyka, każdy z określonymi wymogami regulacyjnymi w celu zarządzania ich potencjalnymi skutkami.
- Wymogi dotyczące przejrzystości: systemy sztucznej inteligencji wysokiego ryzyka muszą spełniać surowe wymogi w zakresie przejrzystości i prowadzenia dokumentacji, aby zapewnić rozliczalność i identyfikowalność.
- Nadzór człowieka: niektóre systemy sztucznej inteligencji wymagają nadzoru człowieka w celu ograniczenia ryzyka i utrzymania standardów etycznych.
Poziomy ryzyka w unijnym prawie dotyczącym sztucznej inteligencji
Ustawa AI definiuje cztery poziomy ryzyka dla systemów AI, z których każdy jest powiązany z konkretnymi wymogami regulacyjnymi:
Źródło : Oficjalna publikacja Komisji Europejskiej na temat prawa AI
Niedopuszczalne ryzyko
Systemy sztucznej inteligencji, które nie mieszczą się w tym poziomie ryzyka, stanowią wyraźne zagrożenie i są surowo zabronione. Przykłady obejmują manipulowanie zachowaniem za pomocą technik poznawczych, takich jak zabawki sterowane głosem, które nakłaniają dzieci do niebezpiecznego zachowania, lub systemy ocen społecznych, które kategoryzują ludzi na podstawie ich zachowania lub cech osobistych.
Systemy AI wysokiego ryzyka
Systemy sztucznej inteligencji należące do tej kategorii mogą mieć znaczący wpływ na zdrowie, bezpieczeństwo lub prawa podstawowe. Przykładami tego mogą być sztuczna inteligencja w zarządzaniu infrastrukturą krytyczną, edukacji, zatrudnieniu i egzekwowaniu prawa. Wszystkie systemy sztucznej inteligencji o wysokim potencjale ryzyka muszą zostać poddane rygorystycznym testom przed wprowadzeniem ich na rynek i przez cały okres ich użytkowania. Osoby fizyczne mają prawo zgłaszać wątpliwości dotyczące systemów sztucznej inteligencji odpowiednim organom krajowym.
Ograniczone ryzyko
Te systemy sztucznej inteligencji stwarzają niskie ryzyko i podlegają wymogom przejrzystości. Na przykład użytkownicy wchodzący w interakcję z chatbotami muszą zostać poinformowani, że rozmawiają z sztuczną inteligencją. Dostawcy muszą również dopilnować, aby treści generowane przez sztuczną inteligencję, w szczególności dotyczące tematów będących przedmiotem zainteresowania publicznego, były wyraźnie oznaczone jako wygenerowane sztucznie, niezależnie od tego, czy jest to tekst, dźwięk czy wideo.
Minimalne lub żadne ryzyko
Systemy sztucznej inteligencji charakteryzujące się minimalnym ryzykiem lub żadnym ryzykiem nie podlegają dodatkowym wymogom regulacyjnym. Przykładami tego są gry wideo kontrolowane przez sztuczną inteligencję i filtry spamu.
Zgodność i sztuczna inteligencja: co firmy powinny zrobić
Jak Rada Europejska wyjaśniła w majowym komunikacie prasowym , ważne jest, aby ocenić wpływ na prawa podstawowe, zanim niektóre przedsiębiorstwa świadczące usługi publiczne wdrożą system sztucznej inteligencji wysokiego ryzyka.
Dostawcy systemów AI powinni pamiętać o kilku kwestiach:
- Przeprowadź ocenę ryzyka poprzez określenie kategorii ryzyka systemu AI i wdrożenie niezbędnych środków ochronnych.
- Utwórz dokumentację techniczną w celu wykazania zgodności i przedłóż ją władzom do przeglądu.
- Opracuj system AI, aby automatycznie rejestrował zdarzenia w celu wykrywania zagrożeń i zmian w systemie.
- Utwórz wytyczne dla operatorów, aby zapewnić spełnienie wymagań.
Chociaż operatorzy nie mają takich samych obowiązków jak dostawcy, ustawa AI wymaga od nich przestrzegania wytycznych użytkowania, zapewnienia zgodności organizacyjnej i technicznej oraz przeprowadzenia oceny wpływu na ochronę danych przed wdrożeniem systemów AI wysokiego ryzyka.
Nieprzestrzeganie unijnych przepisów dotyczących sztucznej inteligencji może skutkować karami finansowymi w wysokości od 35 mln euro, czyli 7% światowego obrotu, do 7,5 mln euro, czyli 1,5% obrotu, w zależności od wagi naruszenia i wielkości firmy.
Cele cyfrowe Europy i europejska strategia dotycząca danych określona na rok 2030 mają na celu promowanie uczciwej konkurencji i zwiększanie przejrzystości usług online. Dla firm oznacza to, że muszą zapewnić, że ich procesy wspierają te wartości ochrony danych. Niedawno przyjęte przepisy, w tym ustawa o usługach cyfrowych i ustawa o rynkach cyfrowych , podkreślają znaczenie uczciwej konkurencji i przejrzystości. Uwzględniając procesy wewnętrzne i dokonując ich przeglądu na wczesnym etapie, zarówno dostawcy, jak i użytkownicy systemów sztucznej inteligencji mogą uniknąć kar finansowych i zwiększyć zaufanie konsumentów. Usprawnij swoje procesy zapewniania zgodności już dziś, klikając tutaj, aby rozpocząć.