DSA i DMA w pigułce – co warto wiedzieć o prawie, które ma poskromić cybergigantów

Artykuł
03.06.2022
21 min. czytania
Tekst
Image
zdjęcie-kolaż ikon aplikacji social mediów

Korporacje pokroju Google’a czy Facebooka mają realną władzę. Decydują o tym, co jest oglądane, czytane, kupowane. Podsuwają odpowiedzi na nurtujące pytania, wpływają na styl życia i polityczne wybory. Nie napędza ich żadna wielka idea. Poza jedną: wiedzieć więcej… by więcej zarobić. Wkrótce w Unii Europejskiej zacznie obowiązywać prawo, które może ograniczyć władzę cybergigantów.

Dlaczego o tym piszemy? Bo od początku – jako Panoptykon – angażowaliśmy się w pracę nad DSA i DMA. Teraz podsumowujemy, jakie zmiany przyniosą nowe przepisy. Koncentrujemy się na największych cyfrowych graczach, bo to wyzwania związane z ich działalnością stały w centrum zainteresowania autorów reformy.

Czym są DSA i DMA?

Akt o usługach cyfrowych (DSA – Digital Services Act) i akt o rynkach cyfrowych (DMA – Digital Markets Act) to rozporządzenia stanowiące dwa filary unijnej reformy, która ma na celu przebudowę Internetu zdominowanego przez cybergigantów, w taki sposób, by stał się bardziej przyjazny dla ludzi i mniejszego biznesu. Według Thierry’ego Bretona, komisarza odpowiedzialnego za reformę, DSA i DMA to naczynia połączone: „Nie da się odpowiedzieć na wyzwania społeczne związane z funkcjonowaniem sieci bez stworzenia warunków dla uczciwej konkurencji – i vice versa”.

Pierwszy filar reformy, DSA, ma chronić prawa użytkowników i użytkowniczek Internetu. W praktyce:

  • narzuca jaśniejsze i bardziej spójne zasady moderacji treści;
  • zakazuje wykorzystywania manipulacyjnych interfejsów;
  • wprowadza ograniczenia dla śledzącej reklamy;
  • zwiększa przejrzystość działania algorytmów rekomendacyjnych, odpowiedzialnych za dobór treści wyświetlanych użytkownikom;
  • wprowadza zasady ochrony konsumentów na platformach zakupowych;
  • wprowadza wymóg pisania regulaminów prostym językiem;
  • ustala reguły współpracy firm internetowych z organami ścigania.

Celem DMA, czyli drugiego filaru reformy, jest ograniczenie dominacji największych graczy w sieci, stworzenie warunków dla uczciwej konkurencji w sieci oraz ukrócenie nieuczciwych praktyk. DMA:

  • wymusza interoperacyjność komunikatorów internetowych;
  • ogranicza możliwości łączenia informacji o użytkownikach, które pochodzą z różnych serwisów;
  • utrudnia wykorzystanie dominującej pozycji do promowania własnych usług.

Dlaczego przyjęto nowe prawo?

Dziś w sieci karty rozdaje grupa największych cyfrowych graczy. Ich model biznesowy opiera się na ciągłej obserwacji i analizie zachowań ludzi korzystających z pozornie darmowych usług. Wszystko po to, by dobierać poszczególnym osobom reklamy i inne treści tak, by jak najdłużej zaangażować ich uwagę i wpłynąć na podejmowane decyzje (konsumenckie, życiowe, polityczne).

Za ogromnymi możliwościami wpływania na rzeczywistość nie podąża jednak odpowiedzialność. Tymczasem niezależne badania i doniesienia sygnalistów (np. afera Facebook Files) nie pozostawiają złudzeń, że negatywne konsekwencje sposobu działania cybergigantów są poważne, choć nie zawsze oczywiste na pierwszy rzut oka.

  • Internet uzależnia jak używki. A to dlatego, że projektanci interfejsów i systemów doboru treści wykorzystują wiedzę na temat działania mózgu po to, by agresywnie angażować uwagę odbiorców. Pociąga to za sobą poważne koszty społeczne: zaburzenia zdrowia psychicznego i relacji społecznych, szczególnie w przypadku dzieci i nastolatków.
  • Algorytmy dobierające reklamy i inne treści wykorzystują ślady, które ludzie zupełnie nieświadomie zostawiają w Internecie. Użytkownicy mogą nie ujawniać informacji o swojej seksualności, lękach, życiowych i zdrowotnych problemach, a jednak na podstawie aktywności w sieci można z dużym prawdopodobieństwem ustalić te – i inne – wrażliwe cechy. W konsekwencji nałogowy hazardzista czy osoba z zaburzeniami lękowymi dostaną ofertę skrojoną pod swoje słabości.
  • Działanie systemów doboru treści wpływa na dostęp ludzi do informacji o otaczającym świecie, a także na ich szanse i wybory życiowe (poprzez podsuwanie takich, a nie innych ofert studiów czy pracy). Nawet jeśli celem algorytmu nie jest gorsze traktowanie konkretnej grupy ludzi, to jego sposób działania może sprzyjać dyskryminacji. Badania pokazują, że kobiety mają np. większą szansę, żeby zobaczyć oferty pracy w przedszkolu czy pielęgniarstwie.
Image
Zrzuty ekranu reklam żerujących na emocjach
Algorytmy dopasowują reklamy w sposób, który może szkodzić. Przeczytaj case study „Algorytmy traumy”
  • Wielkie platformy w arbitralny sposób cenzurują treści (usuwając konkretne wpisy lub blokując konta) i decydują o tym, jakie materiały są przez algorytmy podbijane, a jakie przepływają niezauważone. Te decyzje, zwykle podejmowane przez algorytmy, nie mają przypadkowego charakteru, ale odzwierciedlają politykę i cele biznesowe platformy. W realnym świecie przekładają się nie tylko na to, jakie torebki są kupowane w danym sezonie, ale też na to, kto ma większe szanse wygrać wybory.
  • W modelu biznesowym mediów społecznościowych wygrywa to, co się lepiej klika. Rzetelne analizy i wyważone opinie nie mają szans w konkurencji z clickbaitowymi nagłówkami i polaryzującymi postami. Ta dynamika przyczynia się do szerzenia dezinformacji i pogłębia erozję profesjonalnego dziennikarstwa.

Firmy spod znaku GAFA (Google, Amazon, Facebook, Apple) mają na swoim koncie dziesiątki przegranych spraw i kary idące w miliardy euro. Niestety, żadna z tych korporacji w istotny sposób nie przebudowała swojego modelu biznesowego. Ograniczały się do punktowych korekt.

Dlatego w Unii Europejskiej narosło przekonanie, że potrzebna jest nowa regulacja, która w efektywny sposób wpłynie na praktyki cybergigantów. W trwające od 2019 r. prace angażowało się wiele organizacji społecznych, takich jak Panoptykon, które zwracały uwagę decydentów na problemy i proponowały kierunki rozwiązań. Po drugiej stronie setki lobbystów zatrudnionych przez firmy internetowe próbowały zmiękczyć proponowane przepisy. Z takiego przeciągania liny urodziły się DSA i DMA.

Kogo dotyczą przepisy DSA i DMA?

W praktyce DSA i DMA obejmą długą listę usługodawców: od operatorów oferujących dostęp do sieci (np. Orange, T-Mobile), portali społecznościowych (np. Facebook, Twitter), platformy zakupowe (np. Amazon) i wyszukiwarki (np. Google, DuckDuckGo), a nawet najzwyklejsze strony internetowe, jeśli publikują one komentarze użytkowników (tak, panoptykon.org też się wśród nich znajdzie). Nowe prawo nie wpłynie natomiast na działanie platform VOD (np. Netflix, Amazon Prime, Player) ani tych, które wykorzystują model gig economy, czyli pracę od zlecenia do zlecenia (np. Uber, Glovo).

DSA ureguluje działanie tzw. pośredników internetowych, czyli podmiotów świadczących różne usługi w sieci (zob. niżej), które kierują do europejskich konsumentów – bez względu na to, gdzie znajduje się ich siedziba.

Image
Grafika przedstawiającahierarchię poszczególnych podmiotów
Podmioty objęte regulacją DSA

Wprowadzane obowiązki i ograniczenia będą bardzo zróżnicowane w zależności od rodzaju podmiotu. Założenie jest proste: im większa skala działalności i im większe zagrożenia dla użytkowników stwarza model biznesowy pośrednika, tym więcej czeka go obciążeń. DSA wyróżnia kilka grup podmiotów objętych regulacją:

  • wielkie platformy internetowe (VLOPs – very large online platforms) oraz wielkie wyszukiwarki (VLOSEs – very large search engines) – platformy (por. niżej) i wyszukiwarki, z których korzysta co najmniej 45 mln Europejczyków miesięcznie (np. Facebook, Instagram, Twitter, YouTube, Google);
  • platformy internetowe – serwisy, które na żądanie usługobiorców przechowują i rozpowszechniają publicznie informacje (np. portale społecznościowe, platformy zakupowe i noclegowe, sklepy z aplikacjami); w skład tej grupy nie wejdą serwisy, dla których to jest działalność poboczna, np. wydawcy portali informacyjnych koncentrujący się na pracy redakcyjnej; z wymogów przewidzianych dla platform zwolniono też mikro- i małych przedsiębiorców (w rozumieniu aneksu do rekomendacji 2003/361/EC);
  • hostingodawcy – serwisy, które udostępniają swoje serwery dla treści publikowanych przez użytkowników; poza platformami w tej kategorii mieszczą się zarówno dostawcy chmury (np. Microsoft Azure, Google Cloud) czy dostawcy webhostingu (np. nazwa.pl, home.pl), jak i klasyczne fora internetowe oraz strony zawierające sekcję komentarzy;
  • wszyscy pośrednicy internetowi – w tym, poza hostingodawcami, także podmioty świadczące usługi tzw. cachingu i mere conduit (zwykłego przesyłu).

Każda kolejna wymieniona grupa obejmie szerszy zakres podmiotów, a jednocześnie będzie obciążona węższym katalogiem obowiązków. Przykładowo hostingodawców nie będą obowiązywały ograniczenia przewidziane dla platform, ale wielkie platformy będą musiały przestrzegać nakazów i zakazów przewidzianych dla wszystkich pozostałych grup. Wyjątkiem są wielkie wyszukiwarki, których nie będą obowiązywały ograniczenia narzucone „zwykłym” platformom i pozostałym hostingodawcom.

Image
Grafika przedstawiająca zakres obowiązków poszczególnych podmiotów
Schemat obowiązków pośredników internetowych wg DSA

DMA, czyli drugi filar reformy, obejmie tylko cybergigantów, czyli grupę jeszcze węższą niż wielkie platformy ujęte w DSA. Chodzi o graczy o dominującej pozycji rynkowej, określanych przez DMA strażnikami dostępu (gatekeepers). Kryteria, które trzeba spełnić, żeby trafić do tej grupy, są wyśrubowane. Firma musi:

  • świadczyć jedną z podstawowych wskazanych przez DMA usług (np. wyszukiwarki, portale społecznościowe, systemy operacyjne, przeglądarki, usługi w chmurze, usługi reklamowe, telewizja hybrydowa);
  • mieć ugruntowaną pozycję i znaczący wpływ na europejski rynek, o czym mają decydować m.in. jej roczny obrót, wartość kapitalizacji, liczba państw, w których świadczy usługi, czy liczba użytkowników.

Bez wątpienia do grupy strażników dostępu trafi przynajmniej wielka czwórka cybergigantów – tzw. GAFA, czyli Google (Alphabet), Apple, Facebook (Meta) i Amazon. Ostateczna decyzja o przyznaniu statusu strażnika dostępu będzie należała do Komisji Europejskiej.

Ochrona przed dominacją cybergigantów

DMA wprowadza zakazy i obowiązki dla cybergigantów (strażników dostępu), na których mają skorzystać mniejsze platformy internetowe (również polskie), twórcy niezależnych aplikacji (pisanych przez deweloperów z myślą o serwisach cybergigantów, ale często przez tych dużych graczy dyskryminowanych) oraz sami konsumenci.

  • Kluczowa zmiana polega na wprowadzeniu wymogu interoperacyjności komunikatorów internetowych. Dzięki temu tego typu aplikacje zaczną za sobą „rozmawiać”. Wiadomość wysłaną na Messengerze będzie można odczytać na Signalu i vice versa. W pierwszych czterech latach obowiązywania DMA ta możliwość obejmie jedynie podstawowe funkcjonalności, np. wymianę wiadomości tekstowych, głosowych i plików, ale docelowo będzie rozszerzona na czaty grupowe oraz połączenia głosowe. Być może w przyszłości Komisja Europejska rozszerzy wymóg interoperacyjności na inne usługi, np. portale społecznościowe.

A oto inne ważne zmiany wprowadzane przez DMA pod hasłem fair play:

  • Cybergiganci nie będą mogli łączyć danych osobowych z różnych swoich serwisów i zewnętrznych źródeł bez zgody użytkownika. Zakaz ten obejmie np. integrowanie obserwacji na temat użytkowników YouTube’a, wyszukiwarki Google i innych stron internetowych wykorzystujących Google Analytics (w przypadku firmy Alphabet) czy łączenie w jeden profil danych osoby, która korzysta z Facebooka, Instagrama i Whatsappa (w przypadku firmy Meta).
  • Użytkownicy nie będą zmuszani do łączenia różnych usług z oferty cybergigantów ani do logowania się za pomocą tego samego konta do różnych serwisów. W praktyce telefon z Androidem nie powinien wymagać założenia konta Google.
  • Cybergiganci nie będą mogli preferencyjnie traktować własnych usług np. w ramach sklepu z aplikacjami czy systemu operacyjnego. Apple nie powinien nakierowywać użytkowników na korzystanie z przeglądarki Safari, a Google – przeglądarki Chrome.
  • Rezygnacja z używania podstawowych usług (np. Gmaila czy Messengera) powinna być równie łatwa i intuicyjna, jak zapisanie się do nich.
  • Użytkownicy powinni móc bez problemu odinstalować domyślne aplikacje.

Zasady moderacji treści

Arbitralne usuwanie kontrowersyjnych treści oraz blokowanie kont użytkowników jest w realiach działania platform normą. DSA przyniesie większą przejrzystość i przewidywalność w moderacji treści.

  • Platformy będą mogły zdecydować, że nie dopuszczają w swoich usługach pewnych kategorii treści, które nie są zabronione (np. wulgaryzmów), pod warunkiem że jasno opiszą to w regulaminie. Ograniczenia te nie mogą jednak uderzać w prawa człowieka, czyli m.in. doprowadzać do blokowania kontrowersyjnych materiałów, które realizują ważny interes (np. zaangażowanej społecznie sztuki).
  • Użytkownicy mają być informowani, przystępnie i we wszystkich językach UE (również w formie wyciągu z najważniejszymi postanowieniami), o tym, jakie zasady i narzędzia rządzą moderacją treści, w tym o roli algorytmów.
  • Platformy mają regularnie publikować „raporty przejrzystości” ujawniające m.in. statystyki usuwanych treści.
  • Przepisy określają, jakie warunki powinno spełniać zawiadomienie o nielegalnej treści.

Co z usuwaniem treści i banowaniem użytkowników?

  • Użytkownicy, których wpisy zostaną usunięte lub konta zablokowane, mają dostawać szczegółowe wyjaśnienie przyczyn takich restrykcji wraz z informacją o tym, jakie postanowienie regulaminu naruszyli. Będą oni mogli odwołać się od takiej decyzji, a decydujący głos w ich sprawie będzie należał do człowieka, a nie algorytmu.
  • Wielkie platformy będą miały zatrudnić wystarczającą liczbę moderatorów, żeby zapewnić właściwą moderację treści we wszystkich językach UE, w tym obsługę zgłoszeń nielegalnych treści oraz odwołań od decyzji o usunięciu treści lub blokadzie konta.
  • Specjalne organy przygotowane do rozpoznawania sporów o dopuszczalność treści w sieci oraz sądy będą nadzorować decyzje dotyczące usunięcia treści i blokowania kont.
Image
Grafika przedstawiająca przykład blokowanych treści na Facebooku
Facebook blokuje „kontrowersyjne treści”. Użytkowniczce nie udało się wrzucić książki na sprzedaż, dopóki nie „zmodyfikowała” tytułu

Ochrona przed manipulacją

Wielkie platformy projektują swoje serwisy w taki sposób, by nakłaniać ludzi do działań, które służą bardziej biznesowi niż użytkownikom (np. zaakceptowanie śledzącej reklamy, przewijanie w nieskończoność strumienia aktualności). Dlatego DSA wprowadza zakaz wykorzystywania manipulacyjnych interfejsów (dark patterns).

Wielkie platformy nie będą mogły projektować swoich serwisów w sposób, który zwodzi lub w inny sposób ogranicza możliwość podejmowania swobodnych decyzji. Nie chodzi tylko o wyskakujące okienka służące wyłudzeniu zgody na przetwarzanie danych osobowych, ale też np. o aplikacje łatwe do uruchomienia, a trudne do wyłączenia. Konkretne przykłady zakazanych praktyk pojawią się w wytycznych, które przygotuje Komisja Europejska.

Image
Grafika przedstawiająca wymuszenie zgody na jednym z portali internetowych - dark patterns
Przykład manipulującego interfejsu („dark pattern”)

Ograniczenia dla śledzącej reklamy

Jedną z form manipulacji jest reklama, która wykorzystuje informacje zebrane o użytkownikach. Szczególne problemy wynikają z eksploatowania ludzkich słabości związanych ze stanem zdrowia, kondycją psychiczną, uzależnieniami, życiowym doświadczeniem itp. DSA częściowo odpowiada na te problemy.

  • Platformy nie będą mogły wykorzystywać w celach reklamowych danych dzieci i tzw. danych wrażliwych (m.in. danych na temat stanu zdrowia, poglądów politycznych czy wyznania). Serwowanie śledzących reklam nadal będzie możliwe, ale pod warunkiem, że będą dobierane do użytkowników tylko w oparciu o „niewrażliwe” typy danych.
  • Przy każdej śledzącej reklamie użytkownicy zobaczą:
    • wyraźne oznaczenie, że mają do czynienia ze sponsorowaną treścią;
    • informację, kto za nią zapłacił;
    • spersonalizowane (dostosowane do sytuacji konkretnej osoby) wyjaśnienie, dlaczego właśnie ta reklama została jej wyświetlona (np. jakie zainteresowania zostały jej przypisane).
  • Wielkie platformy będą zobowiązane do publikowania przeszukiwalnych „bibliotek reklam”, czyli baz danych, w których każdej reklamie (wyświetlonej w ostatnim roku) będą towarzyszyć informacje o tym, kto ją zlecił i jaki miała zasięg.

Przejrzyste algorytmy i alternatywny dobór treści

We wszystkich systemach doboru treści to właśnie algorytmy decydują o tym, co wyświetla się użytkownikom. Dotyczy to zarówno treści, które pochodzą od innych użytkowników (np. szeregowania postów na facebookowej osi czasu czy rekomendacji na YouTubie), jak i reklam. W obu przypadkach wiemy tylko, że algorytmy wykorzystują bogatą wiedzę o użytkownikach (pochodzącą m.in. z obserwacji behawioralnych) do profilowania treści w taki sposób, by podbijać to, co się lepiej klika. Wieko tej czarnej skrzynki uchyli teraz DSA.

  • Dla każdego systemu doboru treści platformy internetowe będą zmuszone wyjaśnić logikę jego funkcjonowania, czyli to:
    • na jakiej zasadzie użytkownikom są dobierane treści;
    • jakie kluczowe parametry (np. dane osobowe) są wykorzystywane w tym procesie;
    • jaki efekt próbuje osiągnąć algorytm (czy jego głównym celem jest to, żeby np. ludzie spędzali jak najwięcej czasu przed ekranem, czy może regularnie wracali do usługi).
  • Wielkie platformy będą musiały zagwarantować swoim użytkownikom możliwość wyboru przynajmniej jednego systemu doboru treści, który nie będzie bazował na śledzeniu, czyli nie będzie wykorzystywał danych do rekomendowania sprofilowanych treści. DSA nie precyzuje, jak powinien być zorganizowany alternatywny system: chronologicznie czy według innego klucza (np. tematów wybranych przez konkretnego użytkownika). Uwaga! Będzie to rozwiązanie dla świadomych i chętnych: opcją domyślną pozostanie profilowanie treści, a alternatywny system doboru będzie można wybrać w ustawieniach.

Obowiązkowe oceny ryzyka

Wielkie platformy przyzwyczaiły nas do tego, że raczej ignorują zagrożenia związane z ich modelem biznesowym, niż aktywnie im przeciwdziałają (skutki tych zaniechań unaoczniła m.in. afera Facebook Files). DSA zachęca wiodące firmy do zmiany tej polityki na społecznie odpowiedzialną.

  • Wielkie platformy zostały zobowiązane do regularnego oceniania systemowych ryzyk, jakie wiążą się z ich usługami. Takiej ocenie powinny podlegać:
    • systemy moderacji treści (z uwagi na to, że wykorzystywane w tym celu algorytmy regularnie się mylą i przyczyniają się do niesłusznego usuwania legalnych treści, które powinny być dostępne w debacie publicznej);
    • algorytmy rekomendujące treści (podbijają treści sensacyjne i dobierają treści w taki sposób, że zamykają ludzi w bańkach informacyjnych, ograniczając dostęp do alternatywnych perspektyw);
    • zasady działania interfejsów (nakłaniają użytkowników do częstego odświeżania strumienia aktualności, wzmagają efekt uzależnienia);
    • ustawienia domyślne (pozwalają na śledzenie i czerpanie zysków z wykorzystywania informacji o życiu nieświadomych tego ludzi).
  • Analizy ryzyka nie będą publikowane, ale organizacje społeczne oraz badacze zaakceptowani przez organ nadzorujący stosowanie DSA w danym państwie będą mogli domagać się ich udostępnienia. Dzięki temu zostaną one poddane – przynajmniej do pewnego stopnia – kontroli społecznej.

Ochrona klientów platform zakupowych

DSA próbuje również odpowiedzieć na dynamiczny rozwój platform łączących sprzedawców z ich klientami (np. Amazon, Allegro) i związane z tym wyzwania.

  • Platformy zakupowe będą miały zbierać dane pozwalające na identyfikację sprzedających oraz prowadzić wyrywkowe kontrole produktów po to, by lepiej chronić konsumentów przed oszustami.
  • Klienci takich platform będą mogli oczekiwać rzetelnych i przystępnych informacji o cechach produktów oferowanych na platformach zakupowych oraz o ich producencie.

Jak nowe przepisy będą egzekwowane?

Dbaniem o to, żeby przepisy DSA były przestrzegane, ma się zajmować kilka instytucji.

  • Na szczeblu krajowym powołani zostaną koordynatorzy ds. usług cyfrowych (Digital Services Coordinators), którzy będą czuwać nad prawidłowym stosowaniem DSA i rozpatrywać skargi użytkowników na to, że ich prawa zostały naruszone.
  • Na szczeblu europejskim Komisja Europejska – uzbrojona w odpowiedni budżet i nowe zespoły ekspertów (m.in. specjalizujących się w audytowaniu algorytmów) – będzie nadzorować wielkie platformy internetowe i stosować przewidziane w DSA sankcje, w tym kary pieniężne w wysokości do 6% rocznego obrotu lub zakaz działania na unijnym rynku w przypadku powtarzających się poważnych naruszeń.
  • Europejska Rada ds. Usług Cyfrowych będzie wspierać wdrażanie DSA przez państwa członkowskie i koordynować współpracę między krajowymi koordynatorami.

Egzekwowanie DMA również będzie podzielone.

  • Kluczową rolę na szczeblu europejskim będzie odgrywać Komisja Europejska. Poza identyfikowaniem firm internetowych spełniających kryteria strażników dostępu, to ona będzie wymierzać sankcje za nieprzestrzeganie przepisów DMA, w tym kary pieniężne w wysokości do 10 proc. całkowitego rocznego światowego obrotu firmy (albo do 20 proc., jeśli platforma dopuściła się jednego z poważnych nadużyć po raz kolejny).
  • Na szczeblu krajowym będą również działać organy nadzorujące stosowanie DMA (w Polsce może nim zostać np. UOKiK).

Użytkownicy będą mogli poinformować Komisję Europejską lub organ krajowy o naruszeniu przepisów DMA przez cybergigantów. Nie będzie to jednak formalnie skarga, którą te instytucje musiałyby się zająć.

Kiedy nowe prawo wejdzie w życie?

Negocjacje DSA i DMA zakończyły się wiosną 2022 r. Oba akty prawne zostaną formalnie przyjęte przez instytucje UE tej jesieni. Reforma będzie wdrażana etapami:

  • Najwcześniej, bo już w pierwszym kwartale 2023 r. zacznie obowiązywać większość przepisów DMA dla cybergigantów.
  • W połowie 2023 r. zaczną obowiązywać przepisy DSA dotyczące wielkich platform.
  • W pierwszym kwartale 2024 r. zaczną obowiązywać pozostałe przepisy DSA dotyczące „zwykłych” platform, hostingodawców oraz innych pośredników internetowych.

DSA i DMA, jak wszystkie unijne rozporządzenia, będą w Polsce stosowane bezpośrednio, a więc bez potrzeby „przepisywania” przyjętych rozwiązań do polskich ustaw. Czeka nas jednak proces dostosowywania polskiego prawa, który umożliwi wdrożenie przepisów unijnych w praktyce.

  • Wszystkie polskie regulacje, które stoją w sprzeczności z rozwiązaniami przyjętymi w DSA i DMA, powinny zostać uchylone. Taki los czeka np. przepisy ustawy o świadczeniu usług drogą elektroniczną, które dziś regulują obowiązki usługodawców internetowych w zakresie moderacji treści.
  • Potrzebne też będą nowe regulacje, które nadadzą ostateczny kształt instytucjom przewidzianym w DSA i DMA. Powstaną np. przepisy regulujące sposób powołania i funkcjonowania koordynatora ds. usług cyfrowych, który zgodnie z DSA powinien być niezależny od wpływów politycznych i biznesowych oraz dysponować odpowiednimi zasobami finansowymi i organizacyjnymi. Od działania tego organu będzie w dużej mierze zależało to, na ile nowe przepisy będą skutecznie egzekwowane.

Doświadczenia stosowania RODO nie pozostawiają złudzeń, że kluczowe dla powodzenia tej ambitnej reformy będzie podejście samych cybergigantów i innych internetowych pośredników objętych regulacją. Do nich będzie należało zaprojektowanie i wypromowanie nowych informacji udostępnianych użytkownikom oraz zmodyfikowanych ustawień systemów doboru treści. To, czy firmy podejdą do tego zadania poważnie, czy będą jedynie pozorować zmiany, trzymając się kurczowo utartych ścieżek działania, wpłynie na doświadczenia ludzi korzystających z ich usług. W dalszej perspektywie to do użytkowników i użytkowniczek należeć będzie ocena, czy reforma osiągnęła swoje cele, czy też była tylko utopijnym projektem naprawy cyfrowego świata.

Newsletter

Otrzymuj informacje o działalności Fundacji

Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje danejakie jeszcze prawa ci przysługują, w Polityce prywatności.