Artykuł 17.12.2020 13 min. czytania Tekst Image Banalne wcześniej twierdzenie o tym, że nie wyobrażamy sobie życia bez Internetu nabrało nowej mocy po niedawnych awariach największych platform internetowych: Google’a i Facebooka. Rola, jaką platformy internetowe pełnią w codziennym funkcjonowaniu milionów Europejczyków i Europejek, stała się jeszcze bardziej widoczna wraz z wybuchem pandemii koronawirusa i przeniesieniem online pracy, nauki, zakupów i życia społecznego. Ale na sile przybrały też problemy, które od lat wiążą się z rosnącą dominacją największych platform internetowych: naruszenia prywatności użytkowników i użytkowniczek, których dane przepływają między różnymi serwisami należącymi do jednej cyberkorporacji; prywatna cenzura; nieprzejrzyste zasady działania algorytmów i dostarczania personalizowanych treści. 15 grudnia Komisja Europejska ogłosiła wyczekiwany pakiet regulacji platform internetowych – Digital Services Act i Digital Markets Act – który ma te problemy rozwiązywać.Choć nowe regulacje dotykają najistotniejszych obszarów funkcjonowania platform, propozycje Komisji są dość zachowawcze i w wielu miejscach nie dość konkretne. DSA i DMA, czyli nowe zasady dla platform internetowych Pomysł Komisji na regulację rynku usług cyfrowych pojawił się w 2019 r. jako odpowiedź na rosnącą świadomość tego, że garstka cyfrowych gigantów zarządza globalnym rynkiem informacji i ma coraz większy wpływ na nasze życie. Komisja ewidentnie doszła do wniosku, że problemy, jakie generują platformy, nie naprawią się same, a trwające latami postępowania antymonopolowe nie przynoszą oczekiwanych rezultatów. Nowe regulacje to też szansa na zadbanie o interes społeczny i przywrócenie warunków sprzyjających konkurencji. Propozycja Komisji – kompleksowa, ale bez rewolucji Propozycja zaprezentowana przez Komisję 15 grudnia jest naprawdę kompleksowa, bo dotyka wszystkich istotnych obszarów funkcjonowania platform internetowych: Digital Services Act (DSA, kodeks usług cyfrowych) reguluje zagadnienia związane z moderacją treści, targetowaniem reklam i wykorzystywaniem algorytmów do rekomendowania treści. Digital Markets Act (DMA, kodeks rynków cyfrowych) z kolei nakłada na największe platformy szereg dodatkowych obowiązków i wprost zakazuje wielu nieuczciwych praktyk, które platformy obecnie stosują wobec swoich użytkowników oraz klientów biznesowych. Obie regulacje wprowadzają też nowy instytucjonalny system nadzoru nad platformami, wysokie kary (do 6% rocznego obrotu w DSA i do 10% rocznego obrotu w DMA) oraz nowe narzędzia do dyspozycji organów, w tym tych krajowych. Choć nie ulega wątpliwości, że Komisja dobrze identyfikuje problemy związane z władzą platform, to zaproponowane regulacje są – w kontekście deklarowanych wcześniej ambicji – dość ostrożne. Co zmienią nowe regulacje? Wstępna analiza (mających razem ok. 200 stron) przepisów pozwoliła nam wyjąć przed nawias cztery najistotniejsze obszary zmian: Koniec z arbitralnym usuwaniem legalnych treści (ale „shadow bany” zostają) Obecne przepisy zobowiązują platformy do reakcji na bezprawne treści: jeśli wiedzą o nich, ale ich nie zablokują, mogą ponosić za nie odpowiedzialność. Sprzyja to jednak temu, że z platform, obok hejtu i innych naruszeń, znikają także legalne (i pożyteczne) materiały, a „ocenzurowani” użytkownicy nie mają szansy na skuteczną obronę (na problem ten zwracamy uwagę w naszej sprawie SIN vs Facebook). Zgodnie z DSA decyzje platform o usunięciu treści będą zapadały w sposób dużo bardziej przejrzysty, a przede wszystkim nie będą mogły być tak arbitralne jak teraz. Użytkownicy będą szczegółowo informowani przez platformy m.in. o przyczynach blokady oraz w oparciu o jaki mechanizm została ona nałożona. Uzyskają szansę na przedstawienie swoich argumentów oraz gwarancję, że finalnych decyzji nie będą podejmowały algorytmy. Komisja proponuje też system niezależnego nadzoru nad ostatecznymi decyzjami platform w postaci specjalnych organów pozasądowych powołanych do rozpoznawania sporów o treści (nie wyłączając jednak możliwości odwołania do sądu, choć w tym zakresie projekt wymaga doprecyzowania). Powyższe procedury mają dotyczyć zarówno treści zgłoszonych do moderacji jako naruszających prawo, jak i materiałów, które automatyczne filtry platformy „wyłapią” jako niezgodne z jej regulaminem. Niektóre z rozwiązań proponowanych w DSA funkcjonują już na poszczególnych platformach. Regulacja wprowadza jednak wyższy standard i gwarantuje użytkownikom, że firmy internetowe nie będą go dowolnie zmieniać. Niestety gwarancje te nie odnoszą się natomiast do bardziej „miękkich” środków moderacji niż blokowanie, takich jak np. zmniejszenie zasięgów postów (tzw. shadow bany). Więcej światła na te praktyki może rzucić jedynie przewidziany w projekcie obowiązek cyklicznego publikowania zbiorczych danych obejmujących nie tylko informacje o nałożonych blokadach, ale także właśnie m.in. działań powodujących ograniczenie widoczności publikowanych materiałów. Platformy wytłumaczą się z każdej reklamy (ale standard przejrzystości jest zbyt ogólny) Na niektórych platformach użytkownicy mogą obecnie korzystać z bibliotek reklam i uzyskać przynajmniej podstawowe wyjaśnienie, dlaczego dana platforma zdecydowała się wyświetlić mu konkretną reklamę. Ale zarówno treści wyjaśnień, jak i zawartość biblioteki zależą od dobrej woli platform, które w każdej chwili bez żadnych konsekwencji mogą te narzędzia zmienić lub zlikwidować. DSA przewiduje, że wszystkie platformy internetowe, które serwują reklamy, będą musiały wyjaśnić każdej osobie, jakie kryteria zadecydowały o pokazaniu jej konkretnego komunikatu, zaś bardzo duże platformy (czyli takie, które mają więcej niż 45 mln aktywnych użytkowników miesięcznie, np. Facebook czy YouTube) będą miały obowiązek prowadzić publiczną bibliotekę wszystkich reklam, zawierającą m.in. informacje o tym, do ilu osób dotarła reklama i jakie kryteria targetowania wybrali reklamodawcy. Naszym zdaniem wymogi dla przejrzystości targetowania w propozycji Komisji są jednak zbyt ogólne. Platformy będą miały obowiązek informować tylko o „głównych” kryteriach profilowania, a nie o wszystkich, co pozostawia szerokie pole do interpretacji. Przepisy nie wspominają też wyraźnie o tym, że platformy powinny wyjaśnić nie tylko kryteria wybrane przez reklamodawcę, ale również te, które dobrały ich własne algorytmy odpowiedzialne za kto ostatecznie zobaczy czy usłyszy daną reklamę dotrze. W praktyce może to oznaczać, że nadal trudno będzie wykryć nadużycia, takie jak targetowanie reklam w oparciu o bardzo wrażliwe cechy (np. dotyczące orientacji seksualnej czy zdrowia). O ograniczeniach narzędzi przejrzystości platform pisaliśmy w raporcie Kto (naprawdę) Cię namierzył. Facebook w polskiej kampanii wyborczej. Platformy wyjaśnią swoje algorytmy (ale kontrola nad tym, co widzimy, nadal jest w ich rękach) DSA ustanawia minimalny standard przejrzystości dla algorytmów, które platformy wykorzystują do personalizowania i rekomendowania treści, czyli np. szeregowania postów na Facebookowej osi czasu czy prezentowania rekomendacji na YouTubie. Platformy będą musiały poinformować swoich użytkowników o głównych parametrach, które wykorzystują ich systemy. Nowe zasady pozwolą też użytkownikom zupełnie zrezygnować z personalizacji (i zamiast tego np. wyświetlać treści chronologicznie). Komisja otwiera też użytkownikom możliwość zmiany parametrów tych systemów. Założenie jest dobre: takie rozwiązanie zwiększy kontrolę nad tym, jakie treści do nas docierają. Jednak wyłącznie od woli platform będzie zależało, czy takie „suwaki” w ogóle udostępnią swoim użytkownikom i co pozwolą im zmodyfikować. Takie rozwiązanie raczej nie umożliwi ingerencji w logikę algorytmu, który premiuje zaangażowanie i ma sprzyjać temu, by użytkownicy zostawiali jeszcze więcej danych i oglądali jeszcze więcej reklam. Mniej profilowania i większy wybór dla użytkowników (ale platformy nadal pozostaną zamkniętymi ogrodami) Po najdalej idące rozwiązania Komisja sięgnęła w Digital Markets Act – drugiej nodze reformy rynku usług cyfrowych. Ta regulacja będzie miała zastosowanie wyłącznie do tzw. „gatekeeperów”, czyli platform, które mają największy wpływ na to, jak wygląda nasza cyfrowa rzeczywistość. Kryteria „gatekeepera” spełniają już teraz Google, Apple, Facebook i Amazon (GAFA). Szereg zakazów, które przewiduje Digital Markets Act, daje nadzieję na ograniczenie nadużyć wobec użytkowników, zwłaszcza jeśli chodzi o profilowanie i zmuszanie ich do korzystania z określonych rozwiązań dostarczanych przez dominujące platformy. Na tle aż 18 różnych zakazów i nowych obowiązków szczególnie rewolucyjny potencjał mają: zakaz łączenia danych osobowych z różnych serwisów i źródeł: np. Google nie będzie mógł połączyć danych użytkowników pochodzących z YouTube’a i z wyszukiwarki Google Search, Facebook nie będzie mógł tworzyć jednego profilu dla osoby korzystającej zarówno z Facebooka i Instagrama, nie wzbogaci też tego profilu o dane zebrane z innych stron internetowych. Daje to realną szansę na ograniczenie głębokości profilowania i – w efekcie – może ukrócić takie praktyki jak mikrotargetowanie; zakaz zmuszania użytkowników do korzystania z różnych usług tej samej platformy: w praktyce może to oznaczać, że telefon z Androidem nie będzie wymagał od użytkownika założenia konta Google; możliwość odinstalowania preinstalowanych aplikacji; zakaz preferowania własnych usług: np. Apple nie będzie mógł narzucić użytkownikom swoich urządzeń korzystania z przeglądarki Safari; obowiązek zapewnienia możliwości wykonywania prawa do przenoszenia danych zgodnie z RODO w czasie rzeczywistym. Niestety, w parze z tymi obiecującymi narzędziami nie idzie postulowany przez nas i inne organizacje wymóg otwarcia zamkniętych ekosystemów platform i zapewnienia interoperacyjności z innymi podmiotami. Taki obowiązek został wprowadzony przez Komisję jedynie w ograniczonym zakresie, który w praktyce nie doprowadzi do zmniejszenia dominacji największych platform – nie tak łatwo będzie po prostu usunąć Facebooka, jeśli nie będziemy mogli za pośrednictwem innej platformy społecznościowej porozmawiać ze znajomymi, którzy na Facebooku zostaną. Nie będziemy też mogli za pomocą niezależnych od platform narzędzi uzyskać dostępu do swojego profilu i go zmodyfikować, czy ustawić własnych filtrów treści, które chcemy lub których nie chcemy oglądać. Co czeka nowe regulacje (i Panoptykon) w 2021 roku? Ogłoszenie pakietu Digital Services Act przez Komisję to dopiero początek (długiej) drogi legislacyjnej. Teraz oba projekty (DSA i DMA) trafią równolegle do Parlamentu Europejskiego i Rady UE złożonej z przedstawicieli rządów państw członkowskich, w tym Polski. Kiedy obie instytucje wypracują swoje wersje, rozpoczną się formalne trójstronne negocjacje (tzw. trialog), w których Komisja, Parlament i Rada ustalą ostateczny kształt przepisów. Podczas konferencji prasowej wiceprzewodnicząca Komisji Margarethe Vestager powiedziała, że spodziewa się, że ten proces potrwa około 1,5 roku. Doświadczenie z innymi regulacjami (np. RODO) pokazuje, że jest to dość optymistyczne założenie. Możemy też spodziewać się ofensywy ze strony lobbystów zatrudnionych przez wielkie platformy, którym nowe regulacje są zdecydowanie nie na rękę (wystarczy przypomnieć wyciek agresywnej strategii lobbingowej Google’a wymierzonej w komisarza Thierry’ego Bretona). W Panoptykonie też nie zamierzamy się biernie przyglądać. We wrześniu wzięliśmy udział (obok 3000 innych podmiotów) w konsultacjach społecznych, które poprzedziły grudniową publikację Komisji, a przed nami szczegółowa analiza zaproponowanych regulacji. W kolejnych miesiącach 2021 r. będziemy aktywnie walczyć o to, by nasze postulaty – przede wszystkim te dotyczące rozliczalności algorytmów platform i wymogów pełnej interoperacyjności – zostały uwzględnione zarówno przez Parlament, jak i Radę. To jednak dopiero początek legislacyjnej ścieżki – po drodze wiele może się jeszcze zmienić. Pytanie tylko na czyją korzyść: użytkowniczek i użytkowników czy firm, które przepuszczą lobbystyczny szturm na brukselskich urzędników. Karolina Iwańska, Dorota Głowacka Współpraca: Anna Obem Wesprzyj nas w walce o lepszy Internet! Wpłać darowiznę na konto Fundacji Panoptykon Polecamy również nasze wcześniejsze materiały o regulacji platform internetowych: Panoptykon: Zróbmy sobie raj, czyli czy Internet da się naprawić Panoptykon: Mleko się wylało. Unia chce odebrać władzę GAFA Panoptykon: Stanowisko w konsultacjach publicznych Digital Services Act (w jęz. angielskim) Panoptykon: Rekomendacje zawarte w angielskiej wersji raportu Kto (naprawdę) Cię namierzył. Facebook w polskiej kampanii wyborczej Fundacja Panoptykon Autor Temat media społecznościowe nowy cyfrowy ład Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Facebook decyduje Podczas gdy my badamy rolę Facebooka w kampanii wyborczej, niektórzy politycy na własnej skórze odczuwają problemy związane z arbitralnymi decyzjami firmy. Jeden z kandydatów startujący w jesiennych wyborach parlamentarnych twierdzi, że otrzymał zakaz publikacji postów do 8 listopada, inny – ze… 03.10.2019 Tekst Artykuł Kto (i dlaczego) powinien bać się TikToka? Jeszcze niedawno TikTok budził skojarzenia przede wszystkim z niewinnymi filmikami z tańczącymi ludźmi, apetycznym jedzeniem czy uroczymi zwierzątkami. Dziś dyskusja na temat serwisu przybrała znacznie poważniejszy ton. Na blokadęograniczenia w korzystaniu z aplikacji ze względu m.in. na… 30.01.2023 Tekst Artykuł UE reguluje reklamy polityczne w sieci Komisja LIBE przedstawiła projekt poprawek do rozporządzenia Unii Europejskiej o przejrzystości i targetowaniu reklamy politycznej. W projekcie znalazły się poprawki, o które walczyliśmy! Nakładają one na reklamodawców prowadzących kampanie polityczne m.in. ograniczenia w targetowaniu czy zakaz… 29.07.2022 Tekst