Banowanie kont na platformach internetowych i social media, a nowe przepisy Aktu o Usługach Cyfrowych (DSA)

Jan Czarnocki LL.M., M.A.
28.09.2023

Platformy internetowe mają ogromny wpływ na nasze życie, włączając przebieg i kształt debaty publicznej, a więc i procesów politycznych. Przekonać się o tym można było w ostatnich tygodniach, kiedy to Meta (niegdyś Facebook) zbanował na jednej ze swoich platform (oprócz WhatsAppa i Facebooka), Instagramie, konto lidera Konfederacji, Sławomira Mentzena. Po politycznej interwencji Ministerstwa Cyfryzacji konto zostało przywrócone, a jego zbanowanie uznanę przez Mete za „pomyłkę” . Jednak czy gdyby nie kampania wyborcza i popularność Sławomira Mentzena, to konto zostałoby tak szybko przywrócone? Jak więc wyglądają prawa użytkownika i procedury w takich przypadkach?

Akt o usługach cyfrowych (ang. Digital Services Act – DSA) reguluje moderacje treści i tworzy nowe procedury i roszczenia z których mogą korzystać użytkownicy, żeby zakwestionować decyzje platformy co do np. usunięcia ich kont i treści, a także odwołać się od takich decyzji.

DSA ma skończyć z dotychczasową arbitralnością platform internetowych. Celem nowego prawa jest uregulowanie zasad dostarczania usług cyfrowych, w tym moderowania treści przez dostawców takich usług. Uchwalone w czerwcu 2022 prawo weszło w życie 25 sierpnia 2023 w stosunku do kategorii bardzo dużych platform (np. Facebook, WhatsApp, Google, TikTok, LinkedIn, Twitter), a w stosunku do mniejszych dostawców wejdzie w pełni w życie w lutym 2024 roku. Jak więc będą wyglądają nowe zasady i co mógłby zrobić Sławomir Mentzen, gdyby nie wstawiłoby się za nim szybko Ministerstwo Cyfryzacji?

Dotychczas użytkownicy platform mogli skorzystać z mechanizmu „Odwołaj się od decyzji portalu” , które dla polskich użytkowników wynegocjowało Ministerstwo Cyfryzacji. Usługa została wprowadzona w 2018 roku, podczas gdy wcześniej użytkownicy byli skazani na arbitralne decyzje platform na podstawie ich nieprzejrzystych regulaminów i standardów (które to decyzje często podejmowane są przez automatyczne systemy).

Ponadto, zgodnie z Art. 17 DSA, jeśli platforma ogranicza dostęp do treści, bo uważa je za nielegalne lub niezgodne z ich regulaminem, musi jasno powiedzieć dlaczego. Ograniczenia mogą obejmować:

  • usuwanie treści,
  • ukrywanie treści,
  • blokowanie dostępu do treści,
  • wstrzymywanie płatności,
  • zawieszanie lub zamykanie konta użytkownika.

Platforma musi powiadomić użytkownika o ograniczeniach od razu po ich wprowadzeniu. Powiadomienie o ograniczeniach musi zawierać:

  • opis wprowadzonych ograniczeń,
  • powód dla którego treść została ograniczona,
  • informację, czy decyzja była oparta na zgłoszeniu czy własnej inicjatywie platformy,
  • informację o wykorzystaniu automatycznych narzędzi w podejmowaniu decyzji,
  • prawne uzasadnienie decyzji,
  • wskazanie, w jaki sposób treść narusza regulamin platformy,
  • informacje o tym, jak się odwołać od decyzji platformy.

Wszystkie te informacje muszą być jasne i zrozumiałe. Platformy muszą też dać użytkownikowi pełne informacje na temat tego, jak się odwołać od decyzji. Posiadanie takiego systemu przez platformę jest obowiązkiem wynikającym z Art. 20 DSA. Kluczowe kwestie to:

  • Zapewnienie użytkownikom dostępu do skutecznego wewnętrznego systemu rozpatrywania skarg na decyzje związane z treściami zgłoszonymi jako nielegalne lub niezgodne z warunkami usługi.
  • Użytkownikom należy się ten dostęp przez co najmniej sześć miesięcy od podjęcia decyzji.
  • System ten powinien być łatwo dostępny, przyjazny dla użytkowników i umożliwiać składanie precyzyjnych skarg.
  • Skargi powinny być rozpatrywane w sposób terminowy i obiektywny.
  • Dostawcy platform powinni informować skarżących o swojej decyzji oraz o innych dostępnych środkach odwoławczych.

W związku z Art. 20, Art. 21 DSA odnosi się do pozasądowego rozstrzygania sporów:

  • Użytkownicy mają prawo do korzystania z certyfikowanego organu pozasądowego rozstrzygania sporów w celu rozpatrywania decyzji dostawców platform.
  • Obie strony powinny współpracować z wybranym organem, a dostawcy platform mogą odmówić współpracy, jeśli spór dotyczący tych samych informacji został już rozstrzygnięty.
  • Organ pozasądowego rozstrzygania sporów musi spełniać określone kryteria, aby zostać certyfikowanym, takie jak niezależność, wiedza ekspercka czy dostępność dla użytkowników.
  • Jeśli organ rozstrzyga na korzyść użytkownika, dostawca platformy musi pokryć wszelkie koszty związane z procedurą.

Procedura wprowadzna przez DSA wydaje się być szybsza niż droga sądowa, jednak należy pamiętać, że powództwo cywilne może też przysługiwać, jeżeli platforma naruszy warunki regulaminu i np. zablokuje konto niezgodnie z własnymi zasadami. DSA wymusza na platformie publikacje jasnych i klarownych regulaminów, na podstawie których łatwiejsze jest określenie praw i obowiązków stron, a więc i także powództwo w przypadku pogwałcenia przez platformę własnych zasad dostarczania usług, w tym wypadku szacunku do konta użytkownika i treści przez niego publikowanych.

Autor

Jan Czarnocki LL.M., M.A.
Of Counsel+48 22 416 60 04jan.czarnocki@jklaw.pl

Zobacz inne wpisy