Skip to main content
Loading...
Szukaj
Logowanie
Dane logowania.
Nie masz konta? Załóż je tutaj.
Zarejestruj się
Zarejestruj się
Masz konto? Zaloguj się tutaj.

KE opublikowała AI Act. Co w nim znajdziemy?

KE opublikowała AI Act. Co w nim znajdziemy?

Unia Europejska wprowadziła nowe przepisy regulujące rozwój, wprowadzanie do obrotu i wykorzystywanie systemów sztucznej inteligencji (AI) na swoim terenie. Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689, przyjęte 13 czerwca 2024 roku, ma na celu ustanowienie zharmonizowanych przepisów dotyczących AI oraz dostosowanie istniejących regulacji do nowej rzeczywistości technologicznej.

Dobroczynnie NTHW

Dlaczego powstało rozporządzenie?

Głównym celem rozporządzenia jest "poprawa funkcjonowania rynku wewnętrznego przez ustanowienie jednolitych ram prawnych" dla systemów AI, co ma promować zorientowaną na człowieka i godną zaufania sztuczną inteligencję. Rozporządzenie ma zapewnić wysokie standardy ochrony zdrowia, bezpieczeństwa oraz praw podstawowych, takich jak demokracja i praworządność, a także wspierać innowacje w dziedzinie AI.

- Akt o sztucznej inteligencji pozwoli zagwarantować, że sztuczna inteligencja będzie działała dla dobra wszystkich obywateli i obywatelek Polski. W Ministerstwie Cyfryzacji traktujemy ten temat priorytetowo, intensywnie pracujemy nad projektem ustawy, który pozwoli stosować Akt  – powiedział Dariusz Standerski, wiceminister cyfryzacji. 

-Liczymy, że bliska i konkretna współpraca z instytucjami unijnymi w ramach między innymi Rady ds. AI pozwoli nam szybko i sprawnie wdrożyć tę regulację na gruncie krajowym w sposób zrozumiały i korzystny dla wszystkich. Chcemy także, aby polski system nadzoru nad AI był jasny i przyjazny dla polskich innowatorów, z którymi konsultujemy się m.in. w ramach prac Grupy Roboczej ds. AI – dodał.

Ochrona danych osobowych

Nowe przepisy kładą duży nacisk na ochronę danych osobowych, zgodnie z obowiązującymi przepisami Unii Europejskiej w tej dziedzinie, takimi jak RODO. Rozporządzenie nie wpływa na stosowanie prawa dotyczącego ochrony danych osobowych, a osoby, których dane dotyczą, zachowują wszystkie prawa i gwarancje przyznane im na mocy tego prawa.

Dokument dokładnie definiuje pojęcia związane z AI, takie jak "system AI", "dane biometryczne" czy "zdalna identyfikacja biometryczna". Systemy AI są opisywane jako technologie, które mają zdolność do wnioskowania, co odróżnia je od prostszych systemów oprogramowania. Ponadto systemy AI mogą działać z różnym poziomem autonomii, co oznacza, że są w pewnym stopniu niezależne od zaangażowania ze strony człowieka.

Nowe przepisy unijne mają na celu zapobieganie różnicom w przepisach krajowych, które mogłyby utrudniać swobodny obrót systemami AI i powiązanymi produktami oraz usługami na rynku wewnętrznym. Rozporządzenie ma charakter uzupełniający wobec obowiązującego prawa Unii, w tym w zakresie ochrony danych, ochrony konsumentów oraz praw podstawowych. AI, jako technologia, ma potencjał przynieść korzyści ekonomiczne, środowiskowe i społeczne w różnych sektorach, takich jak opieka zdrowotna, rolnictwo, edukacja, energetyka czy transport. "AI może zapewnić przedsiębiorstwom kluczową przewagę konkurencyjną i wzmacniać korzyści społeczne i środowiskowe" — podkreśla rozporządzenie.

Systemy rozpoznawania emocji

Rozporządzenie definiuje także „system rozpoznawania emocji” jako system AI służący do identyfikacji emocji lub zamiarów osób fizycznych na podstawie ich danych biometrycznych. Emocje takie jak radość, smutek, złość czy zdziwienie są uwzględnione w tej kategorii. Systemy wykrywające stany fizyczne, jak ból czy zmęczenie, nie są objęte tą definicją. "Pojęcie to dotyczy emocji lub zamiarów, takich jak radość, smutek, złość, zdziwienie, obrzydzenie, zakłopotanie, podekscytowanie, wstyd, pogarda, satysfakcja i rozbawienie".

Nowe prawo podkreśla również znaczenie edukacji w zakresie AI dla dostawców, użytkowników i osób, na które sztuczna inteligencja ma wpływ. Kompetencje te obejmują zrozumienie technicznych aspektów rozwoju systemów AI, środków stosowanych podczas ich wykorzystywania oraz interpretacji wyników działania systemów AI. "Dostawców, podmioty stosujące i osoby, na które AI ma wpływ, należy wyposażyć w niezbędne kompetencje w zakresie AI umożliwiające im podejmowanie świadomych decyzji w odniesieniu do systemów AI” – czytamy w dokumencie.

Zastosowanie poza Unią

Przepisy obejmują także systemy AI wykorzystywane poza Unią, jeśli ich wyniki są przeznaczone do wykorzystania w UE. Ma to na celu zapobieżenie obchodzeniu przepisów oraz zapewnienie skutecznej ochrony osób fizycznych w Unii. Nowe prawo nie obejmuje systemów AI stosowanych wyłącznie do celów wojskowych, obronnych lub bezpieczeństwa narodowego. Wyłączenie to ma na celu uwzględnienie specyfiki polityki obronnej i bezpieczeństwa państw członkowskich. "Jeżeli i w zakresie, w jakim systemy AI wprowadza się do obrotu, oddaje do użytku lub wykorzystuje się je ze zmianami lub bez zmian – do celów wojskowych, obronnych lub celów bezpieczeństwa narodowego, systemy te należy wyłączyć z zakresu stosowania niniejszego rozporządzenia.”

Nowe unijne prawo wspiera także innowacje i wolność nauki, wyłączając z jego zakresu systemy AI rozwinięte i używane wyłącznie do celów badań naukowych i rozwojowych. "Należy zatem wyłączyć z jego zakresu stosowania systemy i modele AI rozwinięte i oddane do użytku wyłącznie do celów badań naukowych i rozwojowych” – czytamy w dokumencie.

Analiza ryzyka

Rozporządzenie stosuje podejście oparte na analizie ryzyka, dostosowując przepisy do intensywności i zakresu ryzyka związanego z systemami AI. Zakłada to zakaz stosowania niektórych praktyk AI, ustanowienie wymogów dla systemów wysokiego ryzyka oraz obowiązków w zakresie przejrzystości. "Takie podejście powinno polegać na dostosowywaniu rodzaju i treści takich przepisów do intensywności i zakresu ryzyka, jakie mogą powodować systemy AI”. Nowe przepisy UE mają na celu zapewnienie, że AI będzie rozwijana i wykorzystywana w sposób zgodny z wartościami Unii, zapewniając jednocześnie wysokie standardy ochrony praw i bezpieczeństwa oraz wspierając innowacje technologiczne.

Nowe przepisy wyraźnie zakazują stosowania technik manipulacyjnych opartych na AI, które mogą nakłaniać osoby do niepożądanych zachowań lub wprowadzać je w błąd. Zakaz obejmuje systemy AI, które znacząco zmieniają ludzkie zachowanie w sposób, który może wyrządzić poważne szkody fizyczne, psychiczne lub finansowe.

Rozporządzenie zakazuje również stosowania systemów AI do biometrycznego kategoryzowania osób na podstawie ich cech fizycznych, takich jak twarz czy odciski palców, w celu wyciągania informacji o ich przekonaniach politycznych, religijnych czy orientacji seksualnej. Ponadto systemy AI używane do scoringu społecznego, które mogą prowadzić do dyskryminacji i wykluczenia grup społecznych, również zostały zakazane.

Szczególne obostrzenia dotyczą zdalnej identyfikacji biometrycznej osób w przestrzeni publicznej, używanej przez organy ścigania. Wyjątki od tego zakazu obejmują sytuacje, takie jak poszukiwanie zaginionych osób czy zapobieganie atakom terrorystycznym, ale wymagają one specjalnych zezwoleń.

Emocje i zamiary w miejscu pracy i edukacji

Zakazano również stosowania systemów AI do rozpoznawania emocji w kontekście pracy i edukacji, z powodu obaw o dyskryminacyjne rezultaty i naruszenia praw. "Istnieją poważne obawy co do podstaw naukowych systemów AI mających na celu rozpoznawanie emocji lub wyciąganie wniosków na temat emocji.”

Nowe regulacje mają na celu ochronę podstawowych praw i wolności obywateli UE, w tym prawa do prywatności i niedyskryminacji. Systemy AI wysokiego ryzyka będą musiały spełniać rygorystyczne wymogi dotyczące zarządzania ryzykiem, jakości danych oraz przejrzystości działania. Dzięki nowym przepisom UE stara się zapewnić, że rozwój i wykorzystanie AI będą zgodne z europejskimi wartościami i standardami, chroniąc jednocześnie społeczeństwo przed potencjalnymi zagrożeniami związanymi z tą technologią.

Rozporządzenie przewiduje także ocenę zgodności systemów AI wysokiego ryzyka przed ich wprowadzeniem do obrotu. Dostawcy są zobowiązani do przeprowadzania wewnętrznej oceny zgodności, a w niektórych przypadkach do korzystania z usług jednostek notyfikowanych. „Dostawcy systemów AI wysokiego ryzyka powinni prowadzić dokumentację techniczną, która umożliwi ocenę zgodności systemu z odpowiednimi wymogami oraz monitorowanie po wprowadzeniu do obrotu.”

Deklaracja zgodności UE i oznakowanie CE

Wprowadzono obowiązek sporządzania deklaracji zgodności UE przez dostawców systemów AI wysokiego ryzyka. Deklaracja ta musi być pisemna, podpisana (fizycznie lub elektronicznie), i dostępna przez 10 lat od wprowadzenia systemu na rynek lub jego udostępnienia do użytku.

Rozporządzenie precyzuje również zasady oznakowania CE dla systemów AI wysokiego ryzyka. Oznakowanie to musi być umieszczone w sposób widoczny, czytelny i trwały. "W przypadku systemów AI wysokiego ryzyka dostarczanych w formie cyfrowej cyfrowe oznakowanie CE stosuje się wyłącznie wtedy, gdy można do niego łatwo dotrzeć za pośrednictwem interfejsu" — zaznacza dokument.

Przed wprowadzeniem do obrotu lub oddaniem do użytku systemu AI wysokiego ryzyka, dostawcy muszą dokonać jego rejestracji w bazie danych UE, zgodnie z art. 71. "Przed wprowadzeniem do obrotu lub oddaniem do użytku systemu AI wysokiego ryzyka wymienionego w załączniku III, z wyjątkiem systemów AI wysokiego ryzyka, o których mowa w załączniku III pkt 2, dostawca rejestruje się i swój system w bazie danych UE."

Surowe kary

Rozporządzenie określa też surowe kary za naruszenia przepisów przez operatorów oraz instytucje Unii Europejskiej. Państwa członkowskie są zobowiązane do ustanowienia przepisów dotyczących kar oraz innych środków egzekwowania prawa, które mogą obejmować ostrzeżenia i środki niepieniężne.

Za nieprzestrzeganie zakazu praktyk w zakresie AI, grożą administracyjne kary pieniężne do 35 milionów euro lub do 7% rocznego światowego obrotu przedsiębiorstwa, w zależności od tego, która kwota jest wyższa. Za inne naruszenia przez operatorów lub jednostki notyfikowane, kary wynoszą do 15 milionów euro lub do 3% rocznego obrotu. Podawanie nieprawidłowych, niekompletnych lub wprowadzających w błąd informacji może skutkować karami do 7,5 miliona euro lub do 1% rocznego obrotu przedsiębiorstwa.W przypadku MŚP oraz start-upów, kary pieniężne nie przekraczają określonych kwot, z uwzględnieniem wyższych lub niższych wartości, w zależności od sytuacji ekonomicznej firmy.

Europejski Inspektor Ochrony Danych może nakładać kary na instytucje unijne, do 1,5 miliona euro za nieprzestrzeganie zakazu praktyk w zakresie AI. Inne naruszenia mogą skutkować karami do 750 tysięcy euro. Przy podejmowaniu decyzji o nałożeniu kary uwzględnia się „charakter, wagę i czas trwania naruszenia oraz jego konsekwencje”. Decyzje muszą brać pod uwagę wszystkie istotne okoliczności, w tym wielkość operatora, jego roczny obrót i współpracę z odpowiednimi organami.

Państwa członkowskie oraz Europejski Inspektor Ochrony Danych mają obowiązek składania corocznych sprawozdań do Komisji dotyczących nałożonych kar oraz wszelkich powiązanych sporów lub postępowań sądowych. Komisja ma przyjąć szczegółowe zasady dotyczące procedur nakładania kar, które będą obowiązywać zgodnie z procedurą sprawdzającą.

Nowe przepisy mają na celu wzmocnienie nadzoru nad praktykami AI, zapewniając jednocześnie odpowiednie mechanizmy karne dla naruszeń, aby technologia AI była stosowana w sposób etyczny i zgodny z prawem.

 Grafika: Ministerstwo Cyfryzacji/Security Magazine 

Ustawa Kamilka

Sprawdź się!

Powiązane materiały

Zapisz się do newslettera

Bądź na bieżąco z najnowszymi informacjami na temat
cyberbezpieczeństwa