Skip to main content
Loading...
Szukaj
Logowanie
Dane logowania.
Nie masz konta? Załóż je tutaj.
Zarejestruj się
Zarejestruj się
Masz konto? Zaloguj się tutaj.

"Konstytucja internetu" już obowiązuje

"Konstytucja internetu" już obowiązuje

Akt o usługach cyfrowych określany mianem „konstytucji internetu” ma nie tylko zadbać o bezpieczeństwo użytkowników, ale także zwiększyć przejrzystość i odpowiedzialność bardzo dużych platform i wyszukiwarek internetowych. Na kilka miesięcy przed rozpoczęciem obowiązywania nowych przepisów eksperci z Zespołu Dyżurnet.pl i Działu Strategii i Rozwoju Bezpieczeństwa Cyberprzestrzeni NASK PIB sprawdzili, jak na szkodliwe treści reagują administratorzy popularnych serwisów internetowych jeszcze przed wejściem w życie nowych regulacji.

Akt o usługach cyfrowych 

Od 17 lutego 2024 roku w państwach członkowskich Unii Europejskiej obowiązują nowe przepisy określane mianem „konstytucji internetu”. Mowa o Akcie o usługach cyfrowych (ang. Digital Services Act, DSA), unijnym rozporządzeniu w sprawie jednolitego rynku usług cyfrowych oraz zmiany dyrektywy 2000/31/WE, które wyznacza ramy funkcjonowania dostawców usług pośrednich. Usługi pośrednie należą do szerokiej grupy usług umożliwiających użytkownikom dostęp do internetowych zasobów, hostowanie treści, udostępnianie platform do wymiany informacji, sprzedaży produktów i usług, a także interakcji społecznych. 

Z perspektywy unijnych regulacji z obszaru cyberbezpieczeństwa, DSA ma kluczowe znaczenie dla bezpieczniejszego i bardziej sprawiedliwego internetu. Celem nowych przepisów jest nie tylko wzmocnienie zaufania użytkowników do usług cyfrowych, ale również zwiększenie odpowiedzialności i transparentności bardzo dużych platform internetowych i bardzo dużych wyszukiwarek internetowych, które ze względu na swój zasięg i wpływ na europejski rynek cyfrowy wymagają szczególnego nadzoru i regulacji. Mowa o platformach i wyszukiwarkach, które świadczą swoje usługi dla ponad 45 mln uczestników miesięcznie. 

Nowe obowiązki 

Rozporządzenie nakłada na dostawców usług pośrednich szereg obowiązków, mających na celu na przykład: dostosowanie się do nakazu usunięcia nielegalnych treści, wprowadzenie mechanizmu umożliwiającego użytkownikom zgłaszanie nielegalnych treści, zapewnienie przejrzystych algorytmów wykorzystywanych do rekomendowania produktów, usług i treści, wyznaczenie punktu kontaktowego, a także powołanie przedstawiciela prawnego w jednym z państw członkowskich – jeśli dostawca danej usługi pośredniej nie ma siedziby na terenie Unii Europejskiej. 

Bardzo duże platformy internetowe i bardzo duże wyszukiwarki internetowe podlegają najbardziej restrykcyjnym wymaganiom. Są zobowiązane m.in. do przeprowadzania regularnej oceny ryzyka systemowego i ustanowienia mechanizmu reagowania kryzysowego. Ocena ryzyka systemowego ma na celu zidentyfikowanie potencjalnych zagrożeń związanych z rozpowszechnianiem nielegalnych treści, wpływem na prawa podstawowe i bezpieczeństwo publiczne, a także możliwością wystąpienia negatywnych skutków dla fizycznego i psychicznego dobrostanu użytkowników. Natomiast mechanizm reagowania kryzysowego jest specjalnym instrumentem, który umożliwia szybką reakcję na wytyczne Komisji Europejskiej w przypadku wykrycia poważnego zagrożenia bezpieczeństwa lub zdrowia publicznego. 

Warto podkreślić, że małe i mikroprzedsiębiorstwa są zwolnione z niektórych przepisów DSA. Mogą być jednak poddane procesowi weryfikacji przez platformy, jeśli prowadzą za ich pośrednictwem działalność gospodarczą. 

Egzekwowanie przepisów 

W trosce o skuteczne egzekwowanie nowych przepisów, DSA przewiduje powołanie organów właściwych i koordynatorów ds. usług cyfrowych w każdym państwie członkowskim. Dodatkowo nad realizacją przepisów ma czuwać nie tylko Komisja Europejska, ale także nowy organ — Rada ds. Usług Cyfrowych. Takie rozwiązanie ma na celu zapewnienie jednolitego podejścia do regulacji usług cyfrowych na terenie całej Unii Europejskiej i promowanie uczciwej konkurencji na europejskim rynku cyfrowym.

„Od zgłoszenia do reakcji” -  raport z badania 

Naruszenie zasad określonych w regulaminie strony internetowej lub ogólnie przyjętych norm społecznych może prowadzić do konsekwencji wykraczających poza granice świata online. Administratorzy stron internetowych mają możliwość nie tylko ograniczenia funkcjonalności konta użytkownika, ale również jego zablokowania lub usunięcia. W sytuacji poważnego naruszenia regulaminu, takiego jak na przykład rozpowszechnianie treści nielegalnych, użytkownik zostanie poddany postępowaniu, które może skutkować nałożeniem grzywny lub kary pozbawienia wolności. Dlatego zrozumienie i przestrzeganie zasad i norm społecznych jest kluczowe dla bezpiecznego korzystania z internetu. 

Eksperci z Zespołu Dyżurnet.pl oraz Działu Strategii i Rozwoju Bezpieczeństwa Cyberprzestrzeni NASK PIB przeprowadzili badanie, które miało na celu sprawdzenie reakcji administratorów wybranych stron internetowych na zgłoszenia użytkowników dotyczące naruszenia określonych w regulaminie zasad lub ogólnie przyjętych norm społecznych, a także analizę regulaminów tych stron pod kątem moderowania treści na stronie. 

Grupa badawcza 

W badaniu zastosowano nielosowy dobór próby badawczej. Autorzy posługując się własną wiedzą oraz metodą desk research wytypowali grupę 34 serwisów internetowych, skierowanych do polskich użytkowników i umożliwiających dodawanie treści w formie plików graficznych, tekstu lub plików wideo. W trosce o przebieg badania, autorzy nie kontaktowali się z administratorami wytypowanych serwisów na żadnym etapie badania. 

Przebieg badania 

Badanie składało się z dwóch, niezależnie prowadzonych etapów. W pierwszym etapie badacze z Działu Strategii i Rozwoju Bezpieczeństwa Cyberprzestrzeni przeanalizowali regulaminy wybranych serwisów internetowych ze szczególnym uwzględnieniem kwestii związanych z reagowaniem administratorów na niedozwolone treści oraz możliwością zgłaszania niedozwolonych treści przez użytkowników serwisu.

W drugiej części badacze z Zespołu Dyżurnet.pl przeanalizowali funkcjonowanie mechanizmów moderowania treści ze szczególnym uwzględnieniem sposobu, w jaki reagują administratorzy na zgłoszenia użytkowników dotyczące naruszenia określonych w regulaminie zasad lub ogólnie przyjętych norm społecznych. W tym celu badacze utworzyli konta w badanych serwisach internetowych i zgłaszali treści naruszające regulaminy serwisów, także materiały nielegalne, tworzone przez innych użytkowników. 

Analiza regulaminów i polityk prywatności

Zgodnie z art. 8 ust. 1 ustawy o świadczeniu usług drogą elektroniczną, dostawca  usługi jest zobowiązany do określenia i udostępnienia użytkownikowi regulaminu świadczonej usługi. Spośród 34 badanych serwisów, 32 serwisy udostępniły regulaminy świadczonych usług, a 31 serwisów dodatkowo udostępniło polityki prywatności.

Badacze sprawdzili, ile serwisów umożliwiło publikowanie treści przez anonimowych, niezarejestrowanych użytkowników. Taka możliwość wystąpiła na 11 z 32 badanych serwisów. Co ciekawe, 16 serwisów uniemożliwiło dodawanie treści anonimowym użytkownikom, a 5 serwisów nie zawarło takich informacji w regulaminach.

Następnie badacze sprawdzili, czy serwisy internetowe informują użytkowników o odpowiedzialności prawnej za działania w ramach serwisu internetowego. Taka informacja pojawiła się na 26 z 32 badanych serwisach.

W dalszej części badacze sprawdzili czas rozpatrywania przez moderatorów zgłoszenia zawierającego niedozwoloną treść. Taka informacja pojawiła się na 7 z 32 badanych serwisów. Co ciekawe tylko 3 serwisy podały w regulaminach czas rozpatrzenia zgłoszenia liczony w godzinach – od 48 do 72 godzin. 

Autorzy badania sprawdzili również, czy regulaminy serwisów opisują, w jaki sposób użytkownik może dokonać zgłoszenia treści, którą uważa za niezgodną z regulaminem lub prawem. Taka informacja pojawiła się na 17 z 32 badanych serwisów. 

Ponadto sprawdzono, czy regulaminy serwisów umożliwiają zgłaszanie treści niedozwolonych przez niezarejestrowanych użytkowników. Taka funkcjonalność wystąpiła na 24 z 32 badanych serwisach. 

Funkcjonowanie mechanizmów moderowania treści 

W tej fazie badacze sprawdzili 20 serwisów, które w czasie prowadzonego badania umożliwiały dodawanie przez użytkowników treści (grafiki, tekstu lub wideo) oraz zgłaszanie naruszeń.

Na 12 z 20 badanych serwisach badacze zgłosili grafikę w charakterze mema, która naruszała zapisy regulaminu lub ogólnie przyjęte normy społeczne. Na 4 serwisach zgłoszono opowiadanie erotyczne sugerujące udział osób poniżej 18 r.ż. w czynnościach seksualnych. Na kolejnych 4 serwisach zgłoszono film pornograficzny dostępny dla małoletnich (bez wymaganej weryfikacji wieku), wulgarny komentarz obrażający innego użytkownika, ogłoszenie sprzedaży środków odurzających oraz tekst promujący zażywanie narkotyków. Treści te zakwalifikowano jako szkodliwe lub nielegalne. 

Co ciekawe na 4 z 12 serwisów, na których zgłoszono grafikę w charakterze mema, funkcjonuje wstępna moderacja treści przez administratora, zanim jeszcze treść zostanie udostępniona innym użytkownikom. 

W kolejnym etapie badacze sprawdzili, czy i w jaki sposób administratorzy reagują na zgłoszenia naruszeń pochodzące od użytkowników. Takiemu sprawdzeniu poddano 17 serwisów, które nie posiadały wstępnej moderacji. Na 14 z 17 badanych serwisów moderatorzy usunęli zgłoszoną treść. Co ciekawe 4 serwisy nie wykazały żadnej reakcji na zgłoszenie, a zgłoszona treść pozostała dostępna on-line. 

W kolejnym etapie badacze sprawdzili, ile serwisów udzieliło informacji zwrotnej po zgłoszeniu naruszeń pochodzących od użytkowników. W tym etapie udział wzięło 8 serwisów, z czego 4 nie udzieliły informacji zwrotnej po usunięciu zgłoszenia, 2 nie udzieliły informacji zwrotnej i nie usunęły zgłoszonej treści, 1 udzielił informacji zwrotnej i usunął treść, 1 udzielił informacji zwrotnej i nie usunął treści. 

Wnioski końcowe

Z przeprowadzonego badania wynika, że większość administratorów stron internetowych reaguje na zgłoszenia użytkowników, usuwając treści niezgodne z regulaminem. Jednakże forma zgłaszania udostępniana przez usługodawców może sprawiać trudności mniej zaawansowanym użytkownikom. Mimo że niektóre serwisy umożliwiają wysyłanie zgłoszeń za pomocą formularza kontaktowego lub e-maila, to informacje na ten temat znajdują się wyłącznie w regulaminie. W dodatku, w przypadku kilku serwisów, regulamin wspomina o możliwości zgłaszania za pomocą dedykowanego przycisku, którego faktycznie nie ma na stronie.

Problem stanowi również brak ustandaryzowanego czasu reakcji ze strony administratorów na zgłoszenia oraz sposób informowania zgłaszających o podjętych działaniach. Tylko nieliczne serwisy określiły w regulaminie maksymalny czas odpowiedzi, podczas gdy większość używa nieprecyzyjnych zwrotów takich jak "niezwłocznie", "w rozsądnym czasie" czy "tak szybko, jak to możliwe".

Ponadto ograniczenie możliwości zgłaszania naruszeń przez niezalogowanych użytkowników, mimo że treści są dostępne dla wszystkich odwiedzających, jest nieuzasadnioną barierą w walce z nielegalnymi treściami.

Zauważalne jest również, że niektóre serwisy, które nie usunęły zgłoszonych treści naruszających prawo, nie podjęły żadnych działań w odpowiedzi na zgłoszenie 

Co ciekawe część spośród  serwisów, które posiadały regulamin, zakazywała rejestracji przez niepełnoletnich użytkowników. Niestety co trzeci serwis nie posiadał żadnego mechanizmu weryfikacji wieku, tym samym czyniąc niemożliwym sprawdzenie spełnienia tego warunku przez użytkownika dokonującego rejestracji. 

Więcej informacji o wynikach badania można znaleźć na stronie cyberpolicy.nask.pl.

Źródło:

  • Cyberpolicy.nask.pl/akt_o_uslugach_cyfrowych
  • Cyberpolicy.nask.pl/od-zgloszenia-do-reakcji-raport-cyberpolicy-i-dyzurnet-pl/
Oceń artykuł

Sprawdź się!

Powiązane materiały

Zapisz się do newslettera

Bądź na bieżąco z najnowszymi informacjami na temat
cyberbezpieczeństwa