Europa naprawia Internet. Czy to koniec dyktatu cyberkorporacji?

Artykuł
22.07.2021
14 min. czytania
Tekst
Image
Grafika z połączonymi obrazkami ludzi

Prace nad nową regulacją w Komisji Europejskiej – Digital Services Act – trwają już ponad rok. W dużym uproszczeniu: nowe przepisy mają za zadanie ukrócić wszechwładzę firm, których model biznesowy, trafnie określony przez harwardzką ekonomistkę Shoshanę Zuboff mianem „kapitalizmu inwigilacji”, jest oparty na ciągłym śledzeniu użytkowników. Pozyskane w ten sposób informacje są wykorzystywane do personalizowania reklam i rozwijania kolejnych usług oraz pozwalają maksymalizować spędzany przez użytkowników czas przed ekranem i ich zaangażowanie. Można im dzięki temu pokazać więcej reklam, na które z większym prawdopodobieństwem zareagują).

Cierpi na tym prywatność użytkowników, bo ich nieujawnione słabości wykorzystywane są dla zysku. Do tego gubi się jakość informacji (sensacja wygrywa z rzetelnością, bo lepiej się klika), a ponieważ to algorytmy zaprogramowane zgodnie z interesami biznesowymi platform kształtują dziś naszą cyfrową rzeczywistość, coraz bardziej kurczy się nasza sfera wolności do samodzielnego podejmowania decyzji.

Przywykliśmy do myśli, że taka jest cena za dostęp do „darmowych” usług, bez których trudno wyobrazić sobie dzisiaj codzienne funkcjonowanie. Jednak wcale tak nie musi być – ambicją unijnych instytucji jest pogodzenie rozwoju technologii z ochroną praw i wolności osób, które z niej korzystają. O te ostatnie walczą organizacje broniące praw cyfrowych – w tym Fundacja Panoptykon, która jest jednym z aktywniejszych podmiotów, które biorą od jesieni 2020 r. udział w procesie przygotowywania nowej regulacji.

Jakie rozwiązania wzmocnią pozycję użytkowników względem cyfrowych gigantów?

Domyślna ochrona przed śledzeniem

Dzisiaj wiedza platform internetowych o ich użytkownikach składa się z trzech warstw. Są to informacje podane przez nich samych (np. język, płeć, miejsce zamieszkania), informacje o ich aktywności w sieci (w co klikają, ile czasu spędzają w sieci, w jakich godzinach są najbardziej aktywni zakupowo) i wreszcie informacje wywnioskowane na ich temat przez same platformy (np. na podstawie zwiększonej aktywności na stronach związanych z macierzyństwem platforma może uznać, że dana użytkowniczka jest w ciąży lub ją planuje).

Wśród postulatów Panoptykonu i innych organizacji broniących praw użytkowników jest zakaz wykorzystywania wniosków wyciągniętych na podstawie zachowania użytkowników w sieci do celów reklamowych. Oznaczałoby to, że np. Facebook mógłby wykorzystywać informację o tym, że jego użytkowniczka jest w ciąży, tylko wtedy, gdyby ona sama go o tym poinformowała. To nie oznacza zakazu kierowania reklam do osób spodziewających się dzieci – zgodne z prawem byłoby np. umieszczanie takiej reklamy jako kontekstowej, czyli np. na blogach o macierzyństwie czy przy artykułach na ten temat.

Uprzedzając „efekt RODO” (irytujących pop-upów wyłudzających „zgodę” użytkowników na przetwarzanie danych na potrzeby serwowania przez nie targetowanej reklamy behawioralnej), aktywiści domagają się zakazu tego rodzaju manipulacyjnych praktyk w projektowaniu interfejsów. Nowa regulacja powinna też zakazywać zaszywania „zgód” na gromadzenie informacji w celach reklamowych w regulaminach, a same platformy – umożliwiać (skuteczne) przekazywanie preferencji dotyczących śledzenia przez niezależne narzędzia (wystarczyłoby nawet to, żeby respektowały sygnał „Do Not Track” wysyłany przez przeglądarkę).

Więcej kontroli dla użytkowników

Obrońcy praw cyfrowych domagają się też zawarcia w DSA efektywnych narzędzi kontroli nad danymi i treścią dla użytkowników. Nowa regulacja powinna zapewniać im dostęp do kategorii wykorzystywanych do personalizacji treści, jak również możliwość ich modyfikowania (także za pomocą np. przeglądarek). Dzięki temu użytkownicy nie byliby skazani na to, żeby to platformy decydowały o tym, jakich modyfikacji pozwolą im dokonać. Liczne badania potwierdzają, że już dziś dostępne narzędzia są niezbyt efektywne: prawdziwej kontroli nie daje ani opcja „dlaczego widzę tę reklamę”, którą można kliknąć na Facebooku (żeby dowiedzieć się, że „Reklamodawca chce dotrzeć do kobiet w wieku 18–65 lat”), ani możliwość edycji „zainteresowań” (dziennikarze „The Markup” udowodnili, że można wprawdzie usunąć jakąś kategorię zainteresowań, ale Facebook zaraz znajdzie sobie inną, za pomocą której osiągnie ten sam efekt. Inne wielkie platformy nie są pod tym względem wyjątkiem.

Zdaniem Panoptykonu platformy powinny też dopuścić możliwość korzystania z alternatywnych systemów zarządzania treścią, opartych na innych przesłankach i modelach biznesowych niż te reprezentowane przez GAFA (Google, Amazon, Facebook, Apple). Można wyobrazić sobie, że zewnętrzny algorytm zamiast podbijać treści najbardziej sensacyjne, nastawione na ściągnięcie kliknięć, które są podstawowym towarem w kapitalizmie inwigilacji, da priorytet tym bardziej wartościowym.

Takie rozwiązanie, technicznie oparte na wymogu zapewnienia interoperacyjności systemów platform, otwiera również drogę do rozwoju europejskich alternatyw dla gigantów z Doliny Krzemowej. W niedalekiej przyszłości moglibyśmy wyobrazić sobie zupełnie nowy rynek, na którym alternatywne systemy rekomendacji, rozwijane na przykład przez polskie startupy albo wydawców mediów internetowych, konkurowałyby o zaufanie użytkowników.

Przejrzystość i rozliczalność algorytmów

Organizacje domagają się wreszcie, by platformy były zobowiązane do przeprowadzania regularnej oceny ryzyka dla praw człowieka, jakie generują wykorzystywane przez nie algorytmy i zapobiegania temu ryzyku. Taka ocena powinna podlegać weryfikacji niezależnych organów, które w razie zidentyfikowania naruszeń miałyby prawo nałożyć karę, a nawet nakazać zmianę parametrów algorytmu, a także badaczy czy organizacji społecznych, których zadaniem byłoby identyfikowanie potencjalnych zagrożeń.

Aby było to możliwe, badacze i organizacje muszą mieć zapewniony dostęp do najważniejszych informacji o wykorzystywanych przez platformy algorytmach – np. wiedzieć, za jaki efekt odpowiadają, na jakich danych osobowych i innych kryteriach polegają, jakie potencjalne ryzyko wiąże się z ich wykorzystaniem. Podmioty sprawdzone przez niezależny organ powinny mieć też dostęp do danych, żeby móc „zajrzeć” do algorytmów i zweryfikować rzetelność oceny ryzyka i udokumentować potencjalne problemy. Do tej pory uzyskanie takiego dostępu zależało od dobrej woli platform. Zdarzało się więc, że jeśli tylko badacze dobierali się do problemów, które mogłyby zagrozić interesom biznesowym platform, te szybko im ten dostęp odbierały. Tak zrobił np. Facebook, który pozwał badaczy z amerykańskiego NYU, którzy próbowali lepiej zrozumieć to, jakie szkody może przynosić algorytm rekomendacji treści.

1313 stron poprawek

Wśród zainteresowanych kształtem Digital Services Act są nie tylko sami giganci internetowi spod znaku GAFA oraz obrońcy praw cyfrowych, ale też organizacje walczące z mową nienawiści w sieci, mniejsi dostawcy usług internetowych czy wydawcy prasowi. Wszystkie te podmioty mają za sobą pracowite miesiące, podczas których przygotowywały poprawki i przekonywały do nich europosłów i europosłanki z wiodącej komisji IMCO oraz komisji stowarzyszonych (LIBE i JURI). Wiemy już, że poprawek w samej IMCO jest ok. 2,2 tys. (mieszczą się na 1313 str.). Teraz przed sprawozdawczynią DSA Christel Schaldemose trudne zadanie wynegocjowania z pozostałymi członkami i członkiniami komisji kompromisu, który zadowoli wszystkich na tyle, żeby zdobyć większość niezbędną, by przejść przez głosowanie. Na negocjacje są prawie 4 miesiące – na 8 listopada zaplanowano głosowanie w komisji IMCO. Do końca roku projekt ma trafić pod głosowanie plenarne.

Wiele może też jeszcze wydarzyć się na forum Rady Unii Europejskiej, która – odwrotnie niż Parlament – zwykle dba bardziej o interesy gospodarcze niż o poprawę pozycji użytkowników. Po przyjęciu swoich stanowisk Parlament i Rada usiądą do negocjacji, z których wyłoni się ostateczny kształt regulacji platform. Chociaż na tym etapie ani w komisjach parlamentarnych, ani na forum Rady UE organizacje nie będą miały szansy na zgłaszanie nowych pomysłów, muszą trzymać rękę na pulsie, żeby w toku negocjacji ochrona konsumentów nie przepadła pod naciskiem wielkich platform.

Czy uda się osiągnąć rozwiązanie, które z jednej strony uszanuje prawa i wolności użytkowników, a z drugiej – nie zostanie zbojkotowane przez gigantów internetowych, którzy – nie bez kozery – obawiają się, że nadchodzące zmiany uszczuplą ich zyski? Przekonamy się zapewne już w przyszłym roku.

Karolina Iwańska, Anna Obem, współpraca Maria Wróblewska

Tekst ukazał się 19.07 w cyfrowym wydaniu Tygodnika Polityka.

Unijne Who is Who

Wyjaśniamy jak – w uproszczeniu – wygląda proces stanowienia wspólnotowego prawa (i dlaczego trwa tak długo).

Komisja Europejska zaproponowała nową regulację (Digital Services Act, DSA), która ma odpowiedzieć na wynikające z rosnącej pozycji gigantów internetowych na europejskim rynku problemy utraty prywatności, dezinformacji i skupienia władzy nad informacją w rękach kilku prywatnych podmiotów.

Projekt przedstawiony przez Komisję trafił do komisji Parlamentu Europejskiego zajmującej się wspólnotowym rynkiem i ochroną konsumentów (IMCO). Sprawozdawczyni DSA (czyli europosłanka odpowiedzialna za doprowadzenie do przyjęcia przez Parlament Europejski stanowiska wobec projektu), Christel Schaldemose, przedstawiła swoje propozycje poprawek do projektu. Poprawki mogli też zgłosić pozostali członkowie i członkinie komisji.

Równolegle nad projektem pochylały się inne komisje parlamentarne, z których najważniejsze to LIBE odpowiedzialna za wolności obywatelskie i JURI odpowiedzialna za kwestie prawne. Komisje mogą zgłosić komisji wiodącej (IMCO) swoje sugestie poprawek do projektu.

DSA jest też przedmiotem prac Rady Unii Europejskiej, czyli przedstawicieli rządów państw członkowskich. Specjalna grupa robocza pod prezydencją Słowenii (wcześniej Portugalii) spotyka się regularnie, by debatować nad najbardziej kontrowersyjnymi przepisami DSA. W tych pracach uczestniczą także stali przedstawiciele Polski w Brukseli – dyplomaci, którzy negocjują przepisy zgodnie z instrukcjami przesłanymi przez urzędników działu cyfryzacji z Kancelarii Prezesa Rady Ministrów. Stanowisko wypracowane przez grupę roboczą trafi pod obrady członków Rady.

Kiedy swoje stanowiska wobec DSA przyjmą Parlament Europejski i Rada UE, te dwie instytucje spotkają się z Komisją Europejską w tzw. trilogu. To, co wynegocjują, stanie się Rozporządzeniem Parlamentu Europejskiego i Rady, bezpośrednio obowiązującym we wszystkich krajach członkowskich UE.

 

Rok z DSA

  • Wrzesień 2020: Komisja Europejska ogłasza konsultacje społeczne, które mają zebrać wszystkie problemy związane z rosnącą pozycją gigantów internetowych. Bierze w nich udział 3000 podmiotów (w tym organizacje broniące praw cyfrowych, m.in. Fundacja Panoptykon).
  • 15 grudnia 2020: KE publikuje projekt Digital Services Act
  • Styczeń 2021: polski rząd ogłasza konsultacje projektu DSA (na potrzeby prac w Radzie UE)
  • Styczeń-kwiecień 2021: PE rozważa, które komisje powinny pracować nad DSA, a polski rząd pracuje nad swoim stanowiskiem do przedstawienia w ramach grupy roboczej Rady UE
  • 28 maja 2021: Sprawozdawczyni DSA przedstawia swoje stanowisko komisji IMCO
  • 1 lipca 2021: upływa termin na zgłaszanie poprawek przez pozostałych członków i członkinie komisji IMCO. Zgłoszonych zostaje ok. 2200 poprawek (1313 stron), w tym te autorstwa Panoptykonu
  • 14 lipca 2021: komisja LIBE przyjęła swoje stanowisko wynegocjowane przez sprawozdawcę Patricka Breyera. Stanowisko zakłada domyślny brak profilowania reklam i rekomendacji.
  • 15 lipca 2021: upływa termin zgłaszania poprawek w komisji JURI
  • 8 listopada 2021: planowane głosowanie w komisji IMCO
  • Koniec 2021: planowane przyjęcie stanowisk przez PE i Radę UE
  • 2022: negocjacje w trilogu (PE, Rada UE i KE)

Więcej o naszym zaangażowaniu w DSA

Więcej o tym, jak wygląda (i jak powinien wyglądać) internet według Panoptykonu

Rozmowy na ten temat w podcaście Panoptykon 4.0:

Liczymy na Wasze wsparcie, także finansowe! Możecie wspierać naszą pracę przez cały rok, przekazując darowiznę.

Newsletter

Otrzymuj informacje o działalności Fundacji

Administratorem twoich danych jest Fundacja Panoptykon. Więcej informacji o tym, jak przetwarzamy dane osób subskrybujących newsletter, znajdziesz w naszej Polityce prywatności.