Artykuł 26.04.2022 7 min. czytania Tekst Image W Brukseli zakończyły się właśnie w trójstronne negocjacje instytucji unijnych nad aktem o usługach cyfrowych (Digital Services Act, DSA) – regulacją, która prawdopodobnie ustali warunki nowego ładu cyfrowego w Unii na kolejne dwie czy trzy dekady. DSA zawiera regulacje dotyczące różnych aspektów działalności tzw. pośredników internetowych – od forów internetowych po media społecznościowe i platformy handlowe. Przede wszystkim ma być jednak nowoczesną odpowiedzią na dominację wielkich platform, takich jak Facebook czy Google, w sferze cyfrowej. Głównym celem nowej regulacji jest zwiększenie zakresu odpowiedzialności big techu i lepsza ochrona praw użytkowników. Dawid vs Goliat Zamknięte właśnie negocjacje to ostatni merytoryczny etap trwających od trzech lat prac nad DSA. Panoptykon był w nie zaangażowany od samego początku – zabiegaliśmy o uwzględnienie perspektywy praw i wolności człowieka już w założeniach reformy. Do końca prac, jeszcze w ubiegłym tygodniu, namawialiśmy członków polskiego rządu i jego przedstawicieli w UE, ale też kluczowe osoby z Brukseli, uczestniczące w pracach nad DSA, o niepoddawanie się naciskom cyberkorporacji. Robiliśmy to we współpracy z naszą siecią EDRi i kilkunastoma innymi organizacjami z Europy, bez których wysiłków – nie mamy wątpliwości – DSA nie dawałoby obywatelom równie silnej ochrony przed nadużyciami wielkich platform. A to wszystko na przekór potężnemu lobbingowi cyberkorporacji, które tylko w 2021 r. wydały na niego w UE prawie 30 mln euro (dla porównania: roczny budżet Panoptykonu nie przekracza 1,5 mln – złotych). Paragrafy dla algorytmów Dla Panoptykonu priorytetem w DSA była od początku regulacja algorytmów wielkich platform. To właśnie algorytmy decydują, jakie treści oglądasz w swoim newsfeedzie oraz czy ktokolwiek usłyszy to, co chcesz powiedzieć w sieci. Zasilane naszymi danymi, odgrywają dziś kluczową rolę w kształtowaniu doświadczeń cyfrowych, wyborów i poglądów dużej części opinii publicznej. Mają też swoją ciemną stronę – mogą sprzyjać dyskryminacji, szerzeniu hejtu, dezinformacji, pogłębianiu podziałów społecznych, niebezpiecznej radykalizacji poglądów i innym szkodliwym zjawiskom, na które więcej światła rzuciła niedawno sygnalistka Frances Haugen. A przy tym wszystkim działają poza jakąkolwiek kontrolą. Nieprzypadkowo to właśnie kwestie związane z wykorzystywaniem algorytmów do targetowania reklam i rekomendowania treści organicznych budziły do samego końca największe spory i kontrowersje w toku całego procesu legislacyjnego nad DSA. Wreszcie w nocy z ostatniego piątku na sobotę, po 16 godzinach rozmów, tekst DSA został uzgodniony. O wielu szczegółach nowej regulacji możemy póki co jedynie spekulować, bo dysponujemy tylko oficjalnym komunikatem z Brukseli, że tekst DSA został uzgodniony. Natomiast efektu tych uzgodnień na razie nie opublikowano. Na bazie docierających do nas przecieków, możemy jednak spodziewać się, że DSA przyniesie przynajmniej trzy ważne zmiany. 1. Platformy nie będą mogły tak łatwo żerować na naszych słabościach DSA wprowadza ograniczenia dla targetowania reklam internetowych. Platformy nie będą mogły wykorzystywać do tego celu danych dzieci i tzw. danych wrażliwych (m.in. danych na temat stanu zdrowia, poglądów politycznych czy wyznania), które wystawiają użytkowników i użytkowniczki na największe ryzyko manipulacji i eksploatowania słabości. Personalizacja reklam wciąż będzie możliwa, ale tylko w oparciu o pozostałe typy danych. 2. Większa kontrola nad własnym newsfeedem Największe platformy będą musiały wyjaśnić logikę funkcjonowania swoich systemów rekomendacyjnych. Użytkownicy i użytkowniczki otrzymają też opcję wyboru przynajmniej jednego systemu rekomendacyjnego, który nie będzie oparty na profilowaniu. Oznacza to nie tylko większą kontrolę nad wykorzystaniem naszych danych, ale także alternatywę dla systemu, opartego na pobudzaniu naszego zaangażowania i maksymalizacji czasu spędzanego przed ekranem niezależnie od wartości wyświetlanych informacji. 3. Koniec z prywatną cenzurą Dziś platformy mogą w praktyce arbitralnie i bez wyjaśnień blokować treści. Dzięki DSA, jeśli np. Facebook lub inna platforma będą chciały usunąć konto, jego właściciel lub właścicielka otrzyma uzasadnienie takiej decyzji i uzyska możliwość bardziej skutecznego jej zakwestionowania. Najpierw w ramach wewnętrznej drogi odwoławczej, która będzie musiała spełniać określone w DSA kryteria, a potem ewentualnie przed specjalnym zewnętrznym organem lub sądem. Dodatkowo wprowadzono ograniczenia w stosowaniu algorytmów w moderacji treści. Np. odwołania od decyzji o usunięciu treści będą rozpoznawane z udziałem człowieka, a nie tylko automatycznych narzędzi. To wszystko oznacza bardziej realną możliwość rozliczenia platform z ich decyzji moderacyjnych oraz może wymusić ogólną większą staranność po ich stronie i wpłynąć na zmniejszenie liczby popełnianych błędów. Kosztownych, dodajmy, dla wolności wypowiedzi w Internecie, która jest jednym z filarów nowoczesnego społeczeństwa. Co dalej? Zostajemy z pewnym niedosytem. W pracach nad DSA zabrakło czasem woli politycznej, aby przeforsować bardziej radykalne zmiany, które mogłyby realnie uzdrowić Internet. Rozporządzenie nie zmusi platform np. do zapewniania użytkownikom możliwości wyboru systemu rekomendującego treści, który wybierałby informacje według kryterium ich wiarygodności czy jakości. Nie wymusi też dopuszczenia do rynku zewnętrznych podmiotów, które mogłyby nam taki system zaoferować. Poza tym pozostają obawy, na ile UE będzie w stanie skutecznie egzekwować nowe przepisy, tak aby uzgodnione właśnie ambitne prawo nie pozostało jedynie na papierze. Tymczasem DSA muszą jeszcze formalnie przyjąć Parlament Europejski i Rada. Ostatecznie rozporządzenie zacznie obowiązywać prawdopodobnie w pierwszym kwartale 2024 r. Reguły dotyczące największych platform zaczną jednak obowiązywać wcześniej – najpewniej już na początku 2023 r. Dorota Głowacka Anna Obem Autorka Temat algorytmy Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Podcast Algorytmy Traumy. Jak Facebook karmi się twoim lękiem Zapraszamy na odcinek specjalny, połączony z premierą badania Fundacji Panoptykon „Algorytmy Traumy 2” we współpracy z Piotrem Sapieżyńskim z Northeastern University. 07.12.2023 Dźwięk Podcast Mniej papierowych dokumentów, bazy danych, algorytmy. O cyfryzacji ZUS-u mówi prof. Gertruda Uścińska Kto w państwie powinien mieć dostęp do historii medycznej? Na przykład, by sprawdzić, czy pacjent choruje przewlekle i czy leczył się w szpitalu. 11.04.2024 Dźwięk Artykuł Wysłuchania kandydatów do Komisji Europejskiej W Parlamencie Europejskim zakończyły się wysłuchania kandydatek i kandydatów do Komisji Europejskiej. Przeanalizowaliśmy, jak Henna Virkkunen i Michael McGrath zapatrują się na problemy związane z funkcjonowaniem platform internetowych i jak zamierzają w tej sprawie działać. 18.11.2024 Tekst