Skip to main content
Loading...
Szukaj
Logowanie
Dane logowania.
Nie masz konta? Załóż je tutaj.
Zarejestruj się
Zarejestruj się
Masz konto? Zaloguj się tutaj.

Prawo a AI. Odpowiedzialność i ochrona

Prawo a AI. Odpowiedzialność i ochrona

Czy do tekstu lub obrazu wygenerowanego przez AI można posiadać prawa autorskie? Czy można opatentować wynalazki, których współtwórcą jest sztuczna inteligencja? I w końcu, kto bierze odpowiedzialność za wytwory algorytmów, które narażają na straty konsumentów? Odpowiedzi w dokumencie “Prawne aspekty Gen AI” szukali Dominika Wcisło, Aleksandra Maciejewicz, Milena Balcerzak i Bartłomiej Serafinowicz z LAWMORE.

Odpowiedzi są dość skomplikowane, podobnie jak obecna sytuacja prawna w kontekście AI. Co zatem warto wiedzieć o sztucznej inteligencji, aby nie narazić siebie i swojego biznesu na poważne konsekwencje prawne?

AI wygrało prestiżowy konkurs 

Kilka miesięcy temu było głośno o niemieckim fotografie Borisie Eldagsenie. Artysta wziął udział w prestiżowym konkursie Sony World Photography Awards 2023, w którym przyznano mu nagrodę w otwartej kategorii "Creative". Szybko okazało się, że autorem wyróżnionego zdjęcia nie jest Eldagsen, tylko sztuczna inteligencja, która bazowała na trzydziestoletnim doświadczeniu niemieckiego fotografa. Co prawda, Eldagsen wycofał się z konkursu, ale jego twórcze działanie dorzuciło kolejną „cegiełkę” do dyskusji na temat prawnych aspektów wykorzystania AI. Dlaczego? Bo narzędzia, które wspiera sztuczna inteligencja coraz częściej wykorzystuje się w pracy zawodowej, co później ma przełożenie, chociażby na kwestie związane z prawem autorskim, czy patentowym. Nieumiejętne korzystanie z nowych technologii może sporo kosztować, dlatego warto przyjrzeć się bliżej niektórym kwestiom prawnym w kontekście używania sztucznej inteligencji.

Czym jest AI?

Nim przejdziemy do rozważań prawnych, na początku należy wyjaśnić, czym jest sztuczna inteligencja i jak ona się „uczy”. Obecna definicja mówi, że AI to algorytm, który posiada zdolność uczenia się. Mowa tu o tzw. uczeniu maszynowym, gdzie system wykonuje zadania na podstawie dostarczonych danych, co zastępuje klasyczne programowanie.

Proces uczenia maszynowego składa się z czterech etapów:

  1. wprowadzenie źródła danych;
  2. użycie danych do uzyskania rezultatu;
  3. porównanie rezultatu z danymi kontrolnymi;
  4. zapamiętanie rezultatów i użycie ich do kolejnej iteracji związanej z przetwarzaniem wprowadzonego zbioru danych.

Bazując na tej definicji AI rodzi się zatem pytanie, komu przysługuje prawo autorskie do dzieł, które powstały przy wsparciu np. takich narzędzi jak: ChatGPT, MidJourney, czy CoPilot?

Czy tworząc tekst lub obraz przy wsparciu AI możemy sobie do takiego utworu rościć prawa?

AI a prawo autorskie

W takich przypadkach zwykle podnosi się, że zgodnie z prawem polskim, utworem podlegającym ochronie prawnej jest jedynie przejaw twórczej działalności człowieka. Co oznacza, że efekt działania „maszyny” nie stanowi utworu w myśl prawa autorskiego, więc dzieło stworzone przez AI nie podlega ochronie. Inaczej nieco wygląda sprawa, gdy mowa tu o pracy programisty. Co prawda może on posiadać prawo autorskie do kodu źródłowego, ale już nie do wytworów sztucznej inteligencji. A co z użytkownikami, którzy dostarczają dane do narzędzia AI? Co do zasady, oni również nie będą posiadać praw autorskich do dzieła, ponieważ nie oni decydują o jego ostatecznym kształcie.

AI jako asystent?

Szukając wskazówek jak interpretować działanie AI w kontekście powstawania utworów można sięgnąć do orzecznictwa Sądu Najwyższego w sprawach gdy oceniał on pracę asystenta twórcy. W sprawie, w której asystentka fotografa rościła sobie prawa autorskie do zdjęć, które technicznie zostały wykonane przez nią, ale to jej szef decydował o całej wizji artystycznej i sposobie wykonania zdjęć, Sąd Najwyższy uznał, że jej praca polegała na wykonaniu czynności pomocniczych, a co za tym idzie, nie można jej uznać za współautorkę fotografii.

Decyzję tę argumentowano tym, że współtwórczość w rozumieniu prawa autorskiego nie zachodzi, gdy współpraca nie ma charakteru twórczego lecz pomocniczy. Nie ma tu znaczenia fakt, że wykonywanie czynności pomocniczych wymagały wysokiego stopnia wiedzy fachowej, zręczności oraz inicjatywy osobistej. Analogicznie można ocenić działanie AI – tj. jako pewnego rodzaju „pomocnika” twórcy.

W takich przypadkach, dla pewności, warto sobie jednak zadać trzy pytania:

  • Czy dzieło, które powstało przy użyciu sztucznej inteligencji jest wynikiem twórczej działalności?

  • Czy ma ono indywidualny charakter?

  • Czy dzieło zostało ustalone w jakiejkolwiek postaci, pozwalającej na jego percepcję?

Odpowiedzi na powyższe pytania są w stanie pomóc ustalić czy powstałe dzieło jest utworem w rozumieniu polskiej ustawy o prawie autorskim.

Prawo amerykańskie i brytyjskie

Inaczej do kwestii pomocy AI podchodzi prawo amerykańskie. Niedawno Urząd Praw Autorskich (USCO) wydał wytyczne dotyczące rejestracji utworów/praw autorskich w kontekście pracy wygenerowanej przez sztuczną inteligencję. Wśród nich znajdziemy m.in. zapis, który jasno mówi, że jeśli użytkownicy nie sprawują ostatecznej twórczej kontroli nad tym, jak system interpretuje prompty i generuje materiał, to powstałe dzieło jest wytworem technologii, a nie człowieka. Wyjątek stanowią sytuacje, gdy człowiek, wygenerowany przez AI materiał, przetworzy w wystarczająco kreatywny sposób. Wówczas ochronie prawnej podlegają te elementy, które są wytworem ludzkiej pracy. Z kolei w Wielkiej Brytanii od lat funkcjonuje pojęcie tzw. utworów generowanych maszynowo. Są one objęte ochroną prawną, a prawa autorskie przysługują osobie, która podjęła niezbędne działania do jego wykonania.

Czy AI dopuszcza się plagiatu?

Korzystanie z dzieł wygenerowanych przez sztuczną inteligencję w kontekście prawa autorskiego generuje jeszcze jedno ryzyko. Chodzi o naruszenie praw autorskich osób trzecich. Mając świadomość, że sztuczna inteligencja bazuje na nieograniczonej liczbie danych z sieci, istnieje duże prawdopodobieństwo, że wytwory AI będą plagiatem. Podobnie sprawa ma się z kodami źródłowymi na wolnych licencjach. Jeśli wykorzystywane są one do trenowania modeli AI, to istnieje prawdopodobieństwo naruszenia warunków licencji tego kodu.

AI a prawo własności przemysłowej

Debata nad wytworami AI w kontekście prawa nie odnosi się jedynie do prawa autorskiego, ale również do prawa własności przemysłowej. Z analizy, chociażby Europejskiego Urzędu Patentowego wynika, że przedmiotem patentu nie może być urządzenie lub narzędzie. To oznacza, że wpisywanie jej do zgłoszenia patentowego to pisanie się na problemy. Być może w takiej sytuacji warto siebie wpisać jako wynalazcę, a to czy rozwiązanie zostało stworzone przy pomocy AI potraktować jako sprawę drugorzędną. Ponadto prawo własności przemysłowej mówi wprost, że za wynalazek nie uważa się w szczególności programów komputerowych i metod matematycznych. Odstępstwami od tej przesłanki są sytuacje, w których można wykazać tzw. dalszy efekt techniczny, czyli efekt, który wykracza poza „normalne” oddziaływanie fizyczne między programem komputerowym a komputerem, na którym oprogramowanie jest uruchamiane. W przypadku metody matematycznej trzeba wykazać, że zastrzeżenie dotyczy nie tylko czysto abstrakcyjnej metody matematycznej, ale wymaga też środków technicznych. Przy czym podczas oceniania wkładu metody matematycznej w technicznych charakter wynalazku, należy wziąć pod uwagę czy metoda ta, w kontekście wynalazku, wywołuje efekt techniczny służący celowi technicznemu.

Ryzyka po stronie konsumentów a AI

Dynamiczny rozwój sztucznej inteligencji powoduje, że z narzędzi wspieranych przez AI (głównie tych, które pomagają stworzyć tekst lub obraz) coraz częściej korzystają konsumenci. Z czasem skala będzie większa, ale już dziś można zdefiniować szereg zagrożeń, które wiążą się z wykorzystaniem sztucznej inteligencji przez konsumenta. Oto one:

  • ryzyko manipulacji;

  • wprowadzenie w błąd;

  • dezinformacja;

  • naruszenie prywatności.

Obecna rzeczywistość prawna konsumenta przed wytworami AI chroni na zasadach ogólnych. W związku z tym, w celu skutecznego dochodzenia roszczeń dany podmiot musi udowodnić:

  • wysokość poniesionej szkody;

  • winę osoby trzeciej;

  • związek przyczynowy między działaniem lub zaniechaniem osoby a powstałą szkodą.

Takie uregulowanie zasad odpowiedzialności w kontekście AI powoduje, że obecnie dochodzenie roszczeń jest ekstremalnie trudne. Dlatego Komisja Europejska w 2022 roku opublikowała projekt dyrektywy w sprawie dostosowania przepisów dotyczącej pozaumownej odpowiedzialności cywilnej do sztucznej inteligencji.

Dyrektywa ta wyróżnia: system sztucznej inteligencji i system sztucznej inteligencji wysokiego ryzyka. W odniesieniu do tego drugiego KE państwom członkowskim nakazuje wprowadzenie przepisów umożliwiających zabezpieczenie oraz ujawnienie dowodów dotyczących działania systemu sztucznej inteligencji wysokiego ryzyka. Ponadto dokument zakłada wprowadzenie wzruszalnego domniemania istnienia związku przyczynowego w przypadku winy. Proponowane przez Komisję przepisy mają ułatwić dochodzenie roszczeń odszkodowawczych związanych z działaniem AI.

Kto ponosi odpowiedzialność?

Kolejną sprawą, którą należy poruszyć, jest kwestia odpowiedzialności za szkody, które może wyrządzić wytwór sztucznej inteligencji konsumentowi. Czy leży ona po stronie programisty, producenta, a może samego użytkownika? Jeśli chodzi o programistę, tu w większości przypadków jego odpowiedzialność będzie ponoszona wyłącznie względem podmiotu, który zlecił mu pracę nad AI. Należy też pamiętać, że w przypadku, gdy program będzie posiadał ukryte błędy, które wyrządzają szkody wśród użytkowników, wówczas w niektórych przypadkach możliwe jest dochodzenie roszczeń od programisty przez producenta/dystrybutora w ramach tzw. odpowiedzialności regresowej. W przypadku podmiotu wprowadzającego system na rynek obowiązuje odpowiedzialność zarówno kontraktowa jak i deliktowa. Z kolei sam użytkownik ponosi odpowiedzialność deliktową. Chodzi tu np. o takie sytuacje gdy przy pomocy AI generuje on nieprawdziwy tekst o danej osobie i publikuje go jako treść zgodną z prawdą.

AI Act

Kolejnym europejskim dokumentem regulującym kwestie AI jest AI Act, którego celem jest zapewnienie działania systemów sztucznej inteligencji w UE w sposób bezpieczny, przejrzysty, etyczny oraz kontrolowany przez człowieka. AI Act ma za zadanie wprowadzić przepisy m.in. dotyczące wprowadzania do obrotu, oddawania do użytku oraz wykorzystywania systemów sztucznej inteligencji w całej Unii Europejskiej. Jednocześnie na jego mocy ustanowione mają zostać zakazy dotyczące określonych praktyk związanych z wykorzystaniem sztucznej inteligencji, szczególne wymogi dotyczące systemów AI wysokiego ryzyka, jak również wymogi w zakresie przejrzystości — w szczególności co do narzędzi AI mających wchodzić w interakcje z osobami fizycznymi.

Rozporządzenie obejmuje również wymogi jakości zbiorów danych treningowych, walidacyjnych oraz testowych używanych do trenowania systemów AI, a także kwestie monitorowania narzędzi AI po ich wprowadzeniu do obrotu i nadzoru nad rynkiem. Komisja przyjęła w AI Act założenie, że narzędzia sztucznej inteligencji powinny zostać skategoryzowane pod względem ryzyka dla praw oraz wolności człowieka jakie wiąże się z ich używaniem, a im wyższe ryzyko, tym więcej obowiązków i obostrzeń.

Wnioski

Mając do czynienia z szybkim rozwojem algorytmów sztucznej inteligencji, a jednocześnie z brakiem aktualnych i wdrożonych rozwiązań prawnych dotyczących stricte AI trzeba szczególnie dokładnie oceniać ryzyko związane z używaniem, tworzeniem i wdrażaniem narzędzi AI. Dlatego w sytuacji, kiedy sięgamy po sztuczną inteligencję w swoim projekcie, zawsze warto kierować się kierować się takimi zasadami działania jak transparentność, rozliczalność i bezpieczeństwo.

Tekst powstał na podstawie e-booka “Prawne aspekty Gen AI” autorstwa: Dominiki Wcisło, Aleksandry Maciejewicz, Mileny Balcerzak, Bartłomieja Serafinowicza., do pobrania TUTAJ.

Oceń artykuł

Jak możesz czytać Security Magazine?

  1. Kliknij w POBIERZ - rozpocznie się pobieranie PDF-a na Twoje urządzenie.
  2. Śledź nasze kanały na Facebooku, LinkedIn i TikTok - tam również udostępniamy informacje na temat wydania
  3. W przystępny sposób korzystaj z lektury za pomocą ISSUU — poniżej.

Sprawdź się!

Powiązane materiały

Zapisz się do newslettera

Bądź na bieżąco z najnowszymi informacjami na temat
cyberbezpieczeństwa