Biznesy internetowe w obliczu nowych obowiązków w zakresie moderowania treści. Dnia 17 lutego 2024 r. wchodzi w życie Akt o Usługach Cyfrowych, często nazywany „Konstytucją Internetu”, który wprowadza nowe obowiązki dla przedsiębiorców działających w sieci. Uwaga firm i mediów skupiła się przede wszystkim na nowych zasadach dotyczących wyświetlania reklam. Jeszcze większe zmiany czekają nas jednak w obszarze moderacji treści i ochrony użytkowników przed szkodliwymi treściami – mówi Jakub Pietrasik, counsel kierujący praktyką IP & TMT w warszawskim biurze kancelarii Wolf Theiss.
Akt o Usługach Cyfrowych, tj. Rozporządzenie Parlamentu Europejskiego i Rady w sprawie jednolitego rynku usług cyfrowych („AUC„), wprowadza zestaw przepisów dotyczących prowadzenia działalności online, których głównym celem jest ograniczenie szkód, przeciwdziałanie zagrożeniom i zapewnienie nowych środków zapewniających ochronę użytkowników.
Podczas gdy nowe zasady mają już zastosowanie do globalnych graczy technologicznych, od teraz mniejsze, lokalne podmioty również muszą zapewnić zgodność z nowymi przepisami, mówi Jakub Pietrasik
Przepisy te wiążą się z szeregiem dodatkowych obowiązków, m.in. dla platform internetowych zdefiniowanych jako usługi pośrednie, które publicznie rozpowszechniają informacje o użytkownikach. Obejmuje to nie tylko platformy mediów społecznościowych, ale także na przykład platformy handlowe, portale porównawcze oraz fora z komentarzami i ocenami.
AUC nakłada na platformy internetowe obowiązek moderowania treści, które są niezgodne zarówno z prawem unijnym, jak i krajowym – co dotyczy nie tylko samych treści, ale również treści związanych z konkretnymi produktami lub usługami. Brak reakcji będzie równoznaczny z odpowiedzialnością za ich rozpowszechnianie i będzie podlegał karze. Zgodnie z AUC, górna granica takich kar została ustalona na poziomie 6% rocznego światowego obrotu dostawcy usług pośrednich, za poprzedni rok obrotowy.
Zgodnie z prawem UE nielegalne treści obejmują podżeganie do terroryzmu, materiały dyskryminujące, promowanie rasizmu i ksenofobii lub naruszanie praw własności intelektualnej. Zgodnie z prawem krajowym definicja ta obejmuje też materiały sprzeczne z kodeksem karnym i cywilnym.
Katalog nielegalnych treści jest bardzo szeroki i obejmuje m.in. zdjęcia, które mogą być utożsamiane z reklamą alkoholu, komentarze nawołujące do popełnienia przestępstwa czy wpisy zawierające groźby karalne. Kolejną obszerną kategorią są linki do pirackich kopii filmów czy muzyki, a także grafiki naruszające prawo własności intelektualnej – wyjaśnia Kinga Kluszczyńska z kancelarii Wolf Theiss.
Moderowanie nielegalnych treści oznacza wdrożenie przez platformy internetowe środków mających na celu uniemożliwienie lub ograniczenie użytkownikom dostępu do nich, co może obejmować ich usunięcie. Zgodnie z AUC, dostawcy platform internetowych są zobowiązani do ustanowienia mechanizmów (np. specjalnych formularzy lub procedur) umożliwiających użytkownikom zgłaszanie obecności nielegalnych treści. Oprócz usuwania, publikowanie nielegalnych treści jest również sankcjonowane poprzez ich demonetyzację lub depozycjonowanie w celu ograniczenia ich widoczności. Celem działań moderujących mogą być także objęte konta odbiorców promujących zakazane treści. Jednocześnie użytkownicy otrzymają narzędzia do odwołania się od decyzji platformy – za pośrednictwem dedykowanego kanału, jak i poprzez drogę sądową.
Osobnymi kategoriami treści, wprowadzonymi przez AUC, są te związane z warunkami świadczenia usług oraz tzw. treści szkodliwe, do których zalicza się również dezinformację. Od kwietnia 2023 r. zarówno bardzo duże platformy internetowe jak i wyszukiwarki internetowe są obowiązane do prowadzenia działań ograniczających ryzyka związane z takimi treściami, do których zalicza się np. działania zmierzające do tego, aby informacje łudząco przypominające prawdziwe lub autentyczne treści – były odpowiednio oznaczane i identyfikowane.
Jeśli chodzi o treści naruszające warunki korzystania z usługi, przepisy skłaniają się na korzyść użytkowników i nakazują stronom internetowym i dostawcom usług, aby ich zasady moderacji były przejrzyste i łatwo dostępne. W przypadku moderowania treści nakładają one jednak obowiązek należytej staranności, obiektywizmu i proporcjonalności.
Z jednej strony AUC daje portalom internetowym dużą swobodę w kształtowaniu ich regulaminów i tworzeniu katalogów treści niepożądanych, z drugiej zaś wprowadza szereg wytycznych mających na celu zabezpieczenie interesów użytkowników. Wydaje się, że intencją jest znalezienie równowagi pomiędzy administratorami a użytkownikami, promowanie swobody wypowiedzi przy jednoczesnym zachowaniu uniwersalnych zasad, takich jak zasady współżycia społecznego – dodaje Kinga Kluszczyńska.
Jedną z najistotniejszych zmian wprowadzonych przez AUC dla dostawców usług jest wymóg zorganizowania dedykowanych kanałów lub rozwiązań technologicznych umożliwiających każdej osobie lub podmiotowi zgłaszanie nieodpowiednich treści. Wiąże się to z koniecznością wyznaczenia tzw. trusted flaggers, którzy mają pierwszeństwo w obsłudze takich zgłoszeń. Oczekuje się, że podmioty te będą niezależne od dostawców Internetu i będą posiadać specjalistyczną wiedzę i kompetencje w zakresie wykrywania, identyfikowania i zgłaszania nielegalnych treści. Ponadto podmioty te będą publikować roczne raporty podsumowujące dokonane zgłoszenia.
Źródło: Wolf Theiss.