Skip to main content
Loading...
Szukaj
Logowanie
Dane logowania.
Nie masz konta? Załóż je tutaj.
Zarejestruj się
Zarejestruj się
Masz konto? Zaloguj się tutaj.

Rozwój czy ograniczenie? Eksperckie spojrzenie na AI Act

Rozwój czy ograniczenie? Eksperckie spojrzenie na AI Act

Parlament Europejski podjął decyzję o wprowadzeniu AI Act, stanowiącego pierwsze na świecie kompleksowe ustawodawstwo regulujące wykorzystanie sztucznej inteligencji. To historyczne wydarzenie ma nie tylko wspierać innowacje i postęp technologiczny, ale również zapewnić, że rozwój AI będzie odbywał się w sposób bezpieczny, etyczny i z poszanowaniem praw człowieka. Co na ten temat sądzą nasi eksperci?

Przełom w regulacji sztucznej inteligencji

W marcu 2024 parlament przyjął ustawę dotyczącą sztucznej inteligencji, mającą na celu zagwarantowanie bezpieczeństwa i ochronę podstawowych praw obywatelskich, jednocześnie wspieranie innowacyjności. Rozporządzenie, które zostało uzgodnione z państwami członkowskimi w grudniu 2023 roku, zyskało aprobatę eurodeputowanych, zdobywając 523 głosy poparcia, przy 46 głosach przeciwnych i 49 wstrzymujących się od głosu.

Rozporządzenie ma chronić wolność, demokrację, praworządność oraz równowagę środowiskową przed zagrożeniami wynikającymi z użycia sztucznej inteligencji wysokiego ryzyka. Ma ono również wspierać innowacje i umocnić pozycję Europy jako lidera w tej technologicznej dziedzinie. W rozporządzeniu określono wymogi dotyczące stosowania sztucznej inteligencji, bazując na potencjalnym ryzyku i zakresie wpływu.

Zabronione zastosowania

Nowe regulacje wprowadzają zakaz wykorzystywania niektórych aplikacji sztucznej inteligencji, które mogą naruszać prawa obywatelskie. Dotyczy to systemów biometrycznych klasyfikujących ludzi na podstawie wrażliwych danych oraz niecelowego zbierania wizerunków twarzy z internetu lub z nagrań monitoringu CCTV w celu tworzenia baz danych do rozpoznawania twarzy. Zakaz obejmuje również analizę emocji w miejscach pracy i szkołach, systemy punktacji społecznej, predykcyjne działania policyjne oparte wyłącznie na profilowaniu jednostek lub ocenie ich cech, a także sztuczną inteligencję, która manipuluje zachowaniem ludzkim lub wykorzystuje jego słabości.

AI Act wprowadza klasyfikację systemów AI według poziomu ryzyka, co ma bezpośredni wpływ na branżę. Dla systemów uznanych za wysokiego ryzyka, takich jak technologie rozpoznawania twarzy czy algorytmy wpływające na decyzje życiowe ludzi, ustawa nakłada ścisłe wymogi. Dla przedsiębiorstw oznacza to konieczność dostosowania się do nowych regulacji, co może wiązać się z dodatkowymi kosztami. Jednak AI Act promuje również transparentność i bezpieczeństwo, co może zwiększyć zaufanie konsumentów i otworzyć nowe możliwości rozwoju.

Ograniczenia dla organów ścigania w użyciu identyfikacji biometrycznej

Zasada ogólna zakłada zakaz wykorzystywania przez organy ścigania systemów identyfikacji biometrycznej (RBI), z wyjątkiem ściśle określonych i precyzyjnie zdefiniowanych okoliczności. Użycie RBI w trybie "na żywo" jest dozwolone jedynie po spełnieniu surowych warunków bezpieczeństwa, takich jak ograniczenie czasowe i geograficzne działania systemu oraz wymóg uzyskania uprzedniej zgody sądowej lub administracyjnej. Przykładowe sytuacje, w których może być zastosowane RBI, to poszukiwania zaginionej osoby lub zapobieganie atakowi terrorystycznemu. Zastosowanie systemów RBI po fakcie ("zdalne RBI") klasyfikowane jest jako działanie o wysokim ryzyku, wymagające uzasadnienia sądowego związanego z konkretnym przestępstwem.

Wymogi dla systemów AI o wysokim ryzyku

Dla innych systemów sztucznej inteligencji, klasyfikowanych jako wysokiego ryzyka ze względu na potencjalne zagrożenie dla zdrowia, bezpieczeństwa, podstawowych praw obywatelskich, środowiska, demokracji i praworządności, ustanowiono wyraźne wymogi. Do aplikacji AI o wysokim ryzyku zaliczają się między innymi infrastruktura krytyczna, edukacja i szkolenia zawodowe, zatrudnienie, kluczowe usługi publiczne i prywatne (takie jak opieka zdrowotna czy bankowość), systemy egzekwowania prawa, zarządzanie migracją i granicami, wymiar sprawiedliwości oraz procesy demokratyczne (np. wpływ na wyniki wyborów). 

Takie systemy są zobowiązane do oceny i minimalizacji ryzyka, prowadzenia rejestrów użytkowania, zapewnienia przejrzystości i dokładności działania oraz umożliwienia nadzoru ludzkiego. Obywatele uzyskają prawo do składania zażaleń na systemy AI oraz do otrzymywania wyjaśnień dotyczących decyzji opartych na systemach AI o wysokim ryzyku, które wpływają na ich prawa.

Cyberbezpieczeństwo w centrum uwagi

AI Act kładzie szczególny nacisk na cyberbezpieczeństwo. Ustawa wymaga od twórców i dostawców systemów AI wdrożenia solidnych środków zabezpieczających, aby chronić dane i prywatność użytkowników. To podejście "bezpieczeństwa od projektowania" ma nie tylko chronić przed zagrożeniami, ale również zwiększyć odporność europejskiego sektora AI na cyberataki. 

Kolejne etapy procesu legislacyjnego

Aktualnie rozporządzenie przechodzi przez finalną weryfikację językową i prawną, a jego ostateczne przyjęcie jest przewidywane przed zakończeniem bieżącej kadencji, w ramach tzw. procedury sprostowania. Ponadto, akt prawny wymaga jeszcze formalnej akceptacji przez radę.

Rozporządzenie wejdzie w życie 20 dni po jego publikacji w Dzienniku Urzędowym Unii Europejskiej i zostanie w pełni wdrożone 24 miesiące po tej dacie. Wyjątki stanowią: 

  • zakazy dotyczące niedozwolonych praktyk, które zaczną obowiązywać 6 miesięcy po wejściu w życie rozporządzenia; 
  • kodeksy postępowania, które zostaną wprowadzone 9 miesięcy po wejściu w życie;
  • regulacje dotyczące sztucznej inteligencji ogólnego zastosowania, w tym zarządzanie, które zaczną obowiązywać 12 miesięcy po wejściu w życie; 
  • oraz zobowiązania dotyczące systemów wysokiego ryzyka, które zostaną wprowadzone 36 miesięcy po wejściu w życie.

KOMENTARZE EKSPERTÓW

Jakie mogą być długoterminowe skutki AI Act dla branży AI?

Renata Davidson, Owner & President, Davidson Consulting & Partners Ltd.: Długoterminowe skutki dla branży AI określiłabym przede wszystkim jako „compliance by design”.  Mam na myśli to, że już od bardzo wczesnej fazy budowy rozwiązań AI trzeba będzie postawić trwałą tamę pewnym funkcjonalnościom. Oczywiście, dla pionierów znacząco zaawansowanych w rozwoju narzędzi AI, może to oznaczać konieczność okrojenia już istniejącej funkcjonalności, o ile to w ogóle będzie możliwe.

Radosław Mechło, konsultant AI, trener, dyrektor ds. rozwoju biznesu BUZZcenter: Jest kilka poziomów, na których należy to określać. Przede wszystkim trzeba uważać, żeby AI Act nie ograniczyło za bardzo możliwości rozwoju narzędzi opartych o sztuczną inteligencję. Musimy pamiętać, że Parlament Europejski nie stworzy standardów, które będą przyjęte przez inne kraje, np. USA czy Chiny. 

Brak pewnych ograniczeń może spowodować, że firmy spoza Unii Europejskiej będą miały większe szanse na wprowadzenie i testowanie swoich rozwiązań. Z drugiej strony niektóre ograniczenia są konieczne, żeby firmy nie miały dowolności w przetwarzaniu danych i profilowaniu użytkowników – to zapobiega nadużyciom i zagrożeniom dla prywatności. 

Należy również zwrócić uwagę na potencjalne wyzwania związane z interpretacją i stosowaniem AI Act. Aktualnie mamy dwuletni okres przejściowy w Unii Europejskiej, podczas którego musimy dostosować prawo lokalne do wytycznych AI Act. W tym czasie nieustannie trwają prace nad rozwiązaniami AI i może się okazać, że za dwa lata większość zapisów nie będzie miała zastosowania, bo narzędzia AI będą znacznie bardziej zaawansowane. Nie mamy też punktu odniesienia, bo AI i robotyka rozwijają się w tempie, którego nie spotkaliśmy do tej pory w historii. 

Hubert Jackowski, Head of Privacy & Compliance Tidio: Rozwój sztucznej inteligencji jest w centrum globalnej uwagi, nie tylko ze względu na jego potencjał transformacyjny dla gospodarki i społeczeństwa, ale także z powodu poważnych wyzwań politycznych, etycznych i społecznych, które niesie. Przepisy takie jak AI Act są próbą stworzenia ram regulacyjnych zdolnych sprostać tym wyzwaniom, lecz związane z nimi kwestie, takie jak brak zrozumienia, ryzyko przeregulowania przez Unię Europejską, kwestie zaufania i rozważania polityczne, rysują złożony obraz przyszłości AI.

Brak zrozumienia regulacji przez twórców technologii i użytkowników może prowadzić do niepewnosci i barier w wdrażaniu innowacji. Ten problem nasila się w kontekście międzynarodowym, gdzie różnice w interpretacji i implementacji regulacji przez różne jurysdykcje mogą komplikować globalną współpracę i rozwój. Aby temu zaradzić, ważna edukacja i komunikacja, które mogą pomóc w budowaniu mostów zrozumienia między różnymi grupami zainteresowanymi AI.

Kamila Kierzek-Mechło, dyrektor zarządzający, strateg, doradca ds. rozwoju biznesu, trener BUZZcenter: Z jednej strony dyrektywa AI Act to historyczny dokument prawny regulujący tematykę sztucznej inteligencji, wprowadzony jako pierwszy na świecie. Jego zapisy wpłyną przede wszystkim na bezpieczeństwo ludzi.

Wprowadzenie AI Act ma potencjał by wpłynąć na branżę AI, promując bezpieczeństwo,netykę i innowacje. Ustanowienie jasnych standardów i wymagań może nie tylko zwiększyć zaufanie do technologii AI wśród konsumentów i przedsiębiorstw, ale również stymulować rozwój nowych, bezpiecznych i etycznych rozwiązań. Niemniej, firmy, szczególnie te mniejsze, mogą napotkać trudności związane z dostosowaniem się do nowych regulacji, co wiąże się z dodatkowymi kosztami operacyjnymi.

Ważnym aspektem będzie także międzynarodowa współpraca, która może pomóc w ustanowieniu globalnych standardów dla AI, wspierając bezpieczny i odpowiedzialny rozwój technologii na całym świecie. Należy też pamiętać, że inne kraje jak USA, Kanada czy Chiny rozwijają AI bez dodatkowych obostrzeń, Można w tym upatrywać znaczne opóźnienie technologiczne w Europie.

Paweł Szczyrek, Marketing Manager, Team Leader Ideo Force: Cywilizowanie użycia sztucznej inteligencji i zwiększenie transparentności jej działania – tymi dwoma hasłami określiłbym długofalowe skutki przyjęcia AI Act. 

Cywilizowanie rozumiem tutaj jako nadanie AI prawnych ram zapewniających jasne określenie celowości jej użycia. Podobnie, jak RODO wprowadziło pojęcie celowej zgody marketingowej, gdzie musimy określać, do czego będziemy wykorzystywać dane użytkowników. Tak AI Act wprowadza katalog użyć zabronionych, dzięki czemu pewne praktyki ograniczające wolność jednostki korzystającej z AI będą niedozwolone, a inne balansujące na granicy ingerencji w wolność jednostki będą musiały być dobrze opisane i określać zasady przeciwdziałania ryzkom. 

W długiej perspektywie przyjęte prawo nie ograniczy rozwoju technologii, która służy jasno określonym i moralnym celom, ale utrudni działanie rozwiązaniom, których punktem dojścia mogłaby być np. manipulacja. Jednocześnie jestem przekonany, że AI Act powinien zostać prawem nadającym pewne ogólne ramy, może bardziej kwestią filozofii prawa niż zbiorem konkretnych i szczegółowych wytycznych. Sądzę tak, ponieważ żadne prawo na poziomie szczegółowym nie nadąży za technologią i szybko stanie się jej hamulcowym. Natomiast prawo określające cele AI i umożliwiające weryfikację zgodności konkretnych rozwiązań z tymi celami, zapewni transparentność i nie będzie kagańcem nałożonym na rozwój AI. 

Sławomir Radliński, Prompt Engineering: AI Act może mieć znaczący wpływ na długoterminowy rozwój branży AI w Europie. Ustawa może pomóc w budowaniu zaufania do AI i zwiększeniu jego akceptacji społecznej. Może również stymulować innowacje w dziedzinie AI i wzmocnić pozycję Europy jako lidera w tej dziedzinie. 

Jakie wyzwania i możliwości może przynieść AI Act dla przedsiębiorców?

Renata Davidson: AI Act przede wszystkim nakreśla stosunkowo bezpieczną ścieżkę, po której mogą kroczyć przedsiębiorcy. Wiemy już, co jest absolutnie zabronione, wiemy też, jakie wymagania będziemy musieli spełnić, jeśli chcemy wykorzystać AI w swoich procesach, usługach i produktach. Dotychczas poruszaliśmy się po bardzo niepewnym gruncie, podczas gdy pociąg AI, ciągnięty przez wielkie amerykańskie firmy, szybko umykał firmom europejskim. Odnośnie do wyzwań, szczególną uwagę trzeba będzie zwrócić na kwestie bezpieczeństwa i odpowiedzialności za decyzje podejmowane z wykorzystaniem AI, biorąc pod uwagę jej skłonność do halucynacji. Uważam, że nawet mimo AI Act to może być prawne pole minowe.

Radosław Mechło: Jak każda regulacja prawna, AI Act może spowodować wzrost kosztów związanych z dostosowaniem rozwiązań AI do obowiązującego prawa. Tu trzeba podkreślić, że nie ma możliwości przetestowania wszystkich scenariuszy działania danego rozwiązania, a to niesie za sobą konieczność nieustannego monitorowania. Kluczowe jest również wprowadzenie odpowiednich zabezpieczeń, a to jest stosunkowo trudne. 

Jeśli regulacje będą zbyt restrykcyjne, zobaczymy odpływ przedsiębiorców, którzy swoje produkty i usługi będą tworzyli w miejscach, gdzie jest bardziej liberalne prawo. Dlatego konieczne są konsultacje społeczne ustawodawców z osobami, które rozumieją możliwości i zagrożenia. Linia między ogromnym potencjałem i zagrożeniem jest bardzo cienka. 

Są też pozytywne aspekty, między innymi możliwość rozwoju i skalowania biznesu zgodnie z normami, które będą obowiązywały wszystkich. Oznacza to, że duże korporacje potencjalnie nie będą miały dostępu do narzędzi, które dadzą znaczną przewagę konkurencyjną. 

Te regulacje spowodują również powstanie nowych miejsc pracy związanych z etyką i bezpieczeństwem w AI. A przedsiębiorcy, którzy już teraz inwestują w działania z AI będą mogli się stać liderami w swoich dziedzinach. Hubert Jackowski: Jednym z najważniejszych wyzwań jest konieczność wdrożenia mechanizmów zapewniających zgodność z AI Act, co dla wielu polskich MŚP może oznaczać potrzebę znacznych inwestycji finansowych i czasowych. Małe i średnie przedsiębiorstwa, które stanowią kręgosłup polskiej gospodarki, mogą odczuwać ciężar tych wymogów bardziej niż ich większe odpowiedniki, mając mniej zasobów na inwestycje w niezbędne technologie lub na zatrudnienie ekspertów.

Polskie firmy muszą też konkurować z przedsiębiorstwami spoza EEA, które mogą nie być zobowiązane do przestrzegania takich samych regulacji. Może to prowadzić do dysproporcji konkurencyjnej, gdzie przedsiębiorstwa spoza EEA mogą działać bardziej swobodnie, nie ponosząc dodatkowych kosztów związanych ze zgodnością.

Kolejnym wyzwaniem jest szum informacyjny podobny do tego, który towarzyszył wprowadzeniu RODO w 2018 roku. Przedsiębiorstwa mogą napotkać trudności w przebrnięciu przez mnóstwo informacji, interpretacji i porad dotyczących najlepszego sposobu dostosowania się do AI Act.

Ale mimo tego przepisy te mogą również działać jako katalizator dla innowacji, motywując przedsiębiorstwa do tworzenia bardziej transparentnych i bezpiecznych rozwiązań AI. Firmy, które skutecznie dostosują się do nowych wymogów, mogą zbudować silniejszą pozycję rynkową, wyróżniając się jako liderzy w dziedzinie etycznego stosowania technologii AI. To może być szczególnie wartościowe na polskim rynku.

Znaczenie ma też aktywne uczestnictwo w dialogu branżowym oraz współpraca z innymi przedsiębiorstwami i organizacjami branżowymi. Budowanie partnerstw może również prowadzić do wspólnych inicjatyw mających na celu promowanie zgodności z AI Act i wspieranie innowacji w branży.

Kamila Kierzek-Mechło:  AI Act może stworzyć dla przedsiębiorców zarówno wyzwania, jak i możliwości, przypominając w pewnym stopniu wprowadzenie RODO. Wyzwaniem będzie konieczność dostosowania się do nowych regulacji, co może wiązać się z dodatkowymi kosztami operacyjnymi i koniecznością przeprowadzenia audytów oraz aktualizacji systemów AI.

Uważam, że podobnie jak w przypadku RODO, AI Act ma szansę stać się raczej wytyczną niż sztywną regulacją prawną, oferując firmom elastyczność w implementacji i możliwość wprowadzenia innowacyjnych rozwiązań zgodnych z prawem.

Dla przedsiębiorców może to oznaczać nowe możliwości na rynku, dzięki budowaniu zaufania wśród klientów poprzez transparentne i bezpieczne wykorzystanie AI. To zaś może sprzyjać rozwojowi i adopcji technologii AI na szerszą skalę. Ostatecznie, adaptacja do wymogów AI Act może wzmacniać konkurencyjność przedsiębiorstw na globalnym rynku technologicznym.

Paweł Szczyrek: AI Act nie jest prawem opresyjnym. Tak naprawdę będzie obciążające wyłącznie dla podmiotów, które wykorzystują AI w sposób, który niesie ze sobą różnego rodzaju ryzyka, które zostały wymienione w dokumencie. Dla przeciętnego podmiotu gospodarczego, który chce wykorzystać AI do automatyzacji, usprawnienia procesów w firmie itd. wprowadzenie AI Act nie będzie wiązało się z dodatkowymi wysiłkami. AI Act nie zakłóci więc w żaden sposób płynności i łatwości wykorzystania sztucznej inteligencji w najczęściej spotykanych przypadkach. 

Paradoksalnie uważam, że pozytywny wpływ AI ACT będzie polegać na większej demokratyzacji sztucznej inteligencji. Rynek użycia AI i same rozwiązania AI będą bardziej transparentne, dzięki czemu wyeliminowane zostaną praktyki nieuczciwej konkurencji. 

Osobiście uważam też, że w AI Act istnieje pewne niezagospodarowane pole. Unia Europejska mogłaby wymuszać o wiele mocniej na globalnych dostawcach AI np. OpenAI trenowanie modeli na językach lokalnych.  

Warunkiem działania na rynku europejskim mogłoby stać się wytrenowanie modeli na każdym z języków narodowych, które funkcjonują w UE. Zwiększyłoby to efektywność  działania AI w językach narodowych, a więc poszerzyło katalog możliwych zastosowań (w mojej opinii modele narodowe, nigdy nie dorównają pod kątem efektywności modelom globalnym). 

Sławomir Radliński: AI Act stwarza zarówno wyzwania, jak i możliwości dla przedsiębiorców. Wyzwania obejmują konieczność dostosowania się do nowych wymogów regulacyjnych i ponoszenia kosztów wdrażania AI Act. Możliwości obejmują dostęp do nowych rynków i klientów, tworzenie nowych produktów i usług opartych na AI oraz zwiększenie konkurencyjności. 

Przemyślenia na temat równowagi między innowacją AI w biznesie a regulacją

Renata Davidson: Nie wierzę w innowacje za wszelką cenę, a już na pewno nie za cenę praw i swobód obywateli. AI Act był bardzo potrzebny, a nawet konieczny z tego punktu widzenia i cieszę się, że powstał – wystarczy zwrócić uwagę na listę „zakazanych” rodzajów AI. AI Act nie jest z pewnością doskonały, ale dobrze, że jest.

Radosław Mechło: Ważną rzeczą będzie możliwość szybkiego dostosowania się do zmieniającej się rzeczywistości. VUCA nabiera teraz nowego znaczenia i małe organizacje mogą konkurować z ogromnymi korporacjami, bo mają tanie narzędzia ułatwiające ich działanie. 

Problemem zdecydowanie będzie brak globalnej zgodności, który w dobie globalizacji może spowodować odpływ części firm za granicę, gdzie te prawa nie będą aż tak bardzo restrykcyjne. Konieczne są eksperymenty, które w mikroskali pokażą możliwości i pozwolą na ich skalowanie, o ile oczywiście będzie zapewnione bezpieczeństwo użytkowników oraz danych. Tu warto zastanowić się nad określeniem najważniejszych zasad, które będą służyły innowacji i w odpowiedni sposób chroniły nas przed negatywnymi skutkami. 

Uważam też, że granica między regulacjami prawnymi i innowacjami AI będzie nieustannie przesuwana, ponieważ AI bardzo szybko się rozwija, codziennie dochodzą przełomowe odkrycia i niezwykle ciężko jest przewidzieć, jakie ta technologia będzie miała możliwości za rok czy dwa, nie mówiąc już o dekadzie czy wieku. 

Hubert Jackowski: Innowacje w dziedzinie AI obiecują przemiany w niemal każdej sferze życia, od medycyny, przez produkcję, po edukację. Technologie te mają potencjał znacząco zwiększać efektywność i oferować rozwiązania dotychczas uznawane za niemożliwe do realizacji. Algorytmy sztucznej inteligencji mogą na przykład rewolucjonizować diagnostykę medyczną, umożliwiając wcześniejsze wykrywanie chorób i lepsze dopasowanie terapii. Takie innowacje nie tylko napędzają wzrost gospodarczy, ale również mogą znacząco poprawić jakość życia ludzi na całym świecie. 

Rozwój AI niesie ze sobą jednak nie tylko obietnice, ale i wyzwania. Prywatność danych, etyczne aspekty wykorzystywania AI, odpowiedzialność za decyzje podejmowane przez algorytmy, a także ryzyko marginalizacji ludzi w procesach decyzyjnych to tylko niektóre z kwestii, które wymagają uważnej regulacji. AI Act jest próbą stworzenia takich ram prawnych, które będą wspierać innowacje, jednocześnie chroniąc interesy obywateli i społeczeństw. Ważne jest jednak, aby regulacje te były na tyle elastyczne, aby nie hamować postępu technologicznego, a jednocześnie dostatecznie precyzyjne, by skutecznie minimalizować ryzyka.

Nie żyjemy w próżni, nasze decyzje regulacyjne mają miejsce w szerszym, globalnym kontekście. Nie możemy pozwolić sobie na przyjęcie podejścia znacznie bardziej restrykcyjnego niż inne jurysdykcje, jeżeli nie chcemy ryzykować utraty innowacyjności i konkurencyjności na rynku globalnym. Istnieje realne ryzyko, że zbyt surowe regulacje spowodują przeniesienie badań i rozwoju technologii AI poza nasze granice, co ograniczyłoby nasz wpływ na kształtowanie przyszłości tej technologii oraz mogłoby mieć negatywny wpływ na naszą gospodarkę.

Kamila Kierzek-Mechło: Z jednej strony, dynamiczny rozwój AI oferuje biznesom (zwłaszcza w sektorze MŚP) niezliczone możliwości w zakresie optymalizacji procesów, personalizacji ofert i tworzenia nowych modeli biznesowych. Z drugiej strony, bez odpowiednich ram regulacyjnych, szybki postęp technologiczny może prowadzić do powstania nowych ryzyk, w tym kwestii etycznych, prywatności danych czy bezpieczeństwa. Dlatego tak ważne jest projektowanie przepisów w sposób, który wspiera innowacje, jednocześnie zapewniając ochronę użytkowników i społeczeństwa. Muszą one jednak wspierać biznesy, zwłaszcza te mniejsze.

Idealnie regulacje powinny służyć jako przewodnik dla bezpiecznego rozwoju i wdrożenia AI, a nie jako bariera. W tym kontekście kluczowa staje się współpraca między sektorem technologicznym a regulatorami, aby wspólnie kształtować przyszłość technologii AI w sposób odpowiedzialny i zrównoważony.

Paweł Szczyrek: Pierwszą myślą w odniesieniu do regulacji prawnych, która przychodzi mi do głowy jako praktykowi pracującemu ze sztuczną inteligencją to – obawa, aby ustawodawstwo nie stało się hamulcowym rozwoju technologii, co wykluczyłoby Europę z globalnej gry o wpływ na wyznaczanie trendów (lub choćby narzucanie im kierunku) w tej dziedzinie. Drugą myślą jest jednak obawa, że brak regulacji prawnych naraża nas wszystkich – nie jako wdrożeniowców tej technologii – ale zwykłych jej użytkowników na ogromne ryzyko bycia manipulowanym, choćby pod kątem wykorzystania danych osobowych czy autorskich treści. Stąd też skłaniam się do opinii wyśrodkowanej. 

Brak regulacji – mimo że początkowo sprzyja szybko narastającej innowacji – zawsze finalnie rodzi chaos. Kluczem do sukcesu jest znalezienie rozwiązania, które nie hamując innowacji, będzie je cywilizowało, tzn. narzucało kontekst, który wymusza na innowacji uczynienie z niej elementu pożytecznego społecznie. Wszystko wskazuje, że AI Act jest rozwiązaniem prawnym, który spełnia te oczekiwania. W tym znaczeniu jest to krok w dobrą stronę. 

Sławomir Radliński: Znalezienie równowagi między innowacją a regulacją jest fundamentalnym  wyzwaniem dla AI Act. Zbyt surowe przepisy mogą hamować innowacje, a zbyt luźne przepisy mogą stwarzać zagrożenia dla bezpieczeństwa i praw człowieka. Ważne jest, aby ustawa była elastyczna i dostosowywała się do rozwoju technologicznego. 

Ustawa AI Act jest wciąż w fazie negocjacji. Ostateczny kształt ustawy może się różnić od obecnego projektu. Należy monitorować wdrażanie AI Act i oceniać jego wpływ na rozwój i stosowanie sztucznej inteligencji w Unii Europejskiej. 

Powiązane materiały

Zapisz się do newslettera

Bądź na bieżąco z najnowszymi informacjami na temat
cyberbezpieczeństwa