Skip to main content
Loading...
Szukaj
Logowanie
Dane logowania.
Nie masz konta? Załóż je tutaj.
Zarejestruj się
Zarejestruj się
Masz konto? Zaloguj się tutaj.

Przyszłość AI w Polsce. Są wyniki prekonsultacji

Przyszłość AI w Polsce. Są wyniki prekonsultacji

Ministerstwo Cyfryzacji zakończyło właśnie prekonsultacje dotyczące implementacji unijnego aktu o sztucznej inteligencji, w których uczestniczyło 50 podmiotów, co pokazuje ogromne zainteresowanie i zaangażowanie w kształtowanie przyszłości AI w Polsce.

Studia Cyberbezpieczeństwo WSiZ

Prawo precyzyjne, konkretne i jasne

W ramach prekonsultacji skupiono się na czterech kluczowych kwestiach: powołaniu nowego organu nadzoru, wyznaczeniu podmiotu realizującego funkcję organu notyfikacyjnego, ustaleniu, czy powinna to być jedna instytucja, czy różne podmioty oraz określeniu, które kategorie interesariuszy – takie jak organy, instytucje, organizacje, przedsiębiorstwa, grupy społeczne i obywatele – powinny być priorytetowo traktowane w działaniach komunikacyjnych i edukacyjnych w związku z wdrażaniem europejskiego rozporządzenia

Naszym priorytetem jest wprowadzenie prawa, które będzie precyzyjne, konkretne i jasne. Dlatego naszym priorytetem jest dialog z organizacjami pozarządowymi, ośrodkami naukowymi, związkami przedsiębiorcówpowiedział wiceminister cyfryzacji Dariusz Standerski.  - Ich głos pozwoli nam stworzyć przyjazny dla użytkowników ekosystem sztucznej inteligencji. Dzisiaj projektujemy rozwiązania na wiele lat. Ich uniwersalność i możliwość dostosowania do szybkich zmian technologii będzie kluczowa – dodał.

Nowy organ nadzoru?

Uczestnicy prekonsultacji zaproponowali powołanie nowego organu nadzoru rynku sztucznej inteligencji. Większość opinii podkreślała konieczność utworzenia takiej instytucji. Organ ten miałby pełnić funkcję pojedynczego punktu kontaktowego dla społeczeństwa i partnerów na poziomie państw członkowskich oraz Unii Europejskiej.

Jego zadania obejmowałyby rozpatrywanie wniosków dotyczących zezwoleń na wprowadzenie do obrotu lub użytkowania systemów AI wysokiego ryzyka, rozpatrywanie skarg osób dotkniętych działaniem tych systemów oraz przyjmowanie zgłoszeń o poważnych incydentach. Organ ten miałby również współpracować z Komisją Europejską, forum doradczym i Radą ds. AI. Zgodnie z Aktem, organ nadzoru rynku powinien działać niezależnie, bezstronnie i obiektywnie.

Zwolennicy powołania nowego organu przedstawiają kilka kluczowych argumentów. Uważają, że istniejące instytucje nie dysponują odpowiednimi kompetencjami i zasobami. Ponadto sądzą, że utworzenie wyspecjalizowanej agencji odpowiedzialnej za bezpieczny i legalny rozwój AI przyniesie korzyści zarówno sektorowi publicznemu, jak i prywatnemu. Twierdzą również, że nowy organ pomoże uniknąć potencjalnych sporów kompetencyjnych oraz konfliktów priorytetów w działaniu innych instytucji.

Mniejszość respondentów uważa, że kompetencje organu nadzoru powinny zostać przekazane istniejącej instytucji. W tym kontekście wymieniano takie podmioty jak Prezes Urzędu Ochrony Konkurencji i Konsumentów (UOKiK), Prezes Urzędu Ochrony Danych Osobowych (UODO), Przewodniczący Komisji Nadzoru Finansowego (KNF), Przewodniczący Krajowej Rady Radiofonii i Telewizji (KRRiTV), Prezes Urzędu Komunikacji Elektronicznej (UKE) oraz Minister Cyfryzacji (MC).

A kto będzie nadzorował?

Uczestnicy prekonsultacji są podzieleni w kwestii wyboru podmiotu mającego pełnić funkcję organu notyfikującego. Organ ten ma współpracować z partnerami unijnymi w opracowywaniu i stosowaniu procedur oceny, wyznaczania, notyfikowania oraz monitorowania jednostek oceniających zgodność systemów AI. Ponadto w określonych sytuacjach ma przedkładać Komisji i państwom członkowskim dowody potwierdzające kompetencje tych jednostek. Zgodnie z zamysłem twórców Aktu, organ notyfikujący ma działać w sposób zapewniający wysokie kompetencje eksperckie, poufność, bezstronność oraz brak konfliktów interesów z jednostkami oceniającymi zgodność.

Nieco więcej respondentów popiera pomysł utworzenia nowej instytucji do pełnienia tej funkcji (25 wskazań). Jednak znaczna liczba uczestników uważa, że te zadania mogłyby realizować już istniejące podmioty (19 wskazań), z których najczęściej wymieniano Polskie Centrum Akredytacji (PCA). Nieznaczna większość uczestników prekonsultacji (23 wskazania) uważa, że lepiej byłoby, gdyby funkcje organu nadzoru rynku i organu notyfikującego wykonywała w Polsce ta sama instytucja.

Poza ogółem obywateli, uczestnicy prekonsultacji wskazywali, że informacje o przepisach wynikających z Aktu powinny być przekazywane przede wszystkim przedsiębiorcom z sektora AI, w tym dostawcom systemów wysokiego ryzyka, przedstawicielom administracji publicznej, naukowcom i studentom, konsumentom, twórcom i artystom, instytucjom sektora finansowego oraz przedstawicielom ochrony zdrowia.

Okiem eksperta

Marta Zalewska, co-founder AI Superpowers, agencji AI, uważa, że prekonsultacje do projektowanej implementacji Aktu o Sztucznej Inteligencji są ważnym krokiem w kierunku stworzenia odpowiedzialnych i skutecznych ram prawnych dla AI w Europie. — Wdrożenie tych przepisów będzie miało długofalowe konsekwencje dla rozwoju technologii, gospodarki i społeczeństwa – uważa Zalewska. — Ważne jest, aby w tych dyskusjach brały udział różnorodne grupy interesariuszy – od technologów i przedsiębiorców, po przedstawicieli społeczeństwa obywatelskiego i organizacje pozarządowe – dodała.

Co więcej, Zalewska uważa, że aby implementacja Aktu o sztucznej Inteligencji się udała, musi ona zostać tak przeniesiona na grunt polski, aby skutecznie balansowała między innowacyjnością a bezpieczeństwem, zapewniając transparentność i ochronę danych. — Kluczowe jest tworzenie ram prawnych, które minimalizują uprzedzenia algorytmiczne, jednocześnie promując rozwój technologii – uważa co-founder AI Superpowers.

- Prywatność użytkowników i odporność na cyberataki muszą być priorytetem, aby chronić społeczeństwo przed nadużyciami. Edukacja i świadomość społeczna w zakresie AI są niezbędne do świadomego korzystania z technologii i uczestnictwa w debacie publicznej – dodała.

Dobroczynnie NTHW

Sprawdź się!

Powiązane materiały

Zapisz się do newslettera

Bądź na bieżąco z najnowszymi informacjami na temat
cyberbezpieczeństwa