Artykuł 22.09.2021 5 min. czytania Tekst Image Lista szkodliwych skutków ubocznych tego, jak dominujące platformy internetowe kształtują nasz obraz świata, jest długa. Żerowanie na słabościach użytkowników, negatywny wpływ na poczucie własnej wartości, dyskryminacja, manipulacja, promowanie toksycznych treści i intensyfikacja radykalizacji – to te najpoważniejsze. Fundacja Panoptykon i 49 organizacji społecznych z całej Europy w liście otwartym do europarlamentarzystów zwracają uwagę, że problemy te może rozwiązać większa kontrola nad algorytmami wykorzystywanymi przez platformy do personalizowania treści. Lepszej okazji ku temu niż przygotowywana właśnie regulacja usług cyfrowych – Digital Services Act – nie będzie. Ciemna strona algorytmów Porządkowaniem i podsuwaniem nam treści, które oglądamy na Facebooku czy YouTubie, zajmują się algorytmy. I to nie byle jakie! Dziś to karmiona danymi użytkowników i użytkowniczek sztuczna inteligencja, której zadaniem jest maksymalizowanie zysków platformy z reklam. A to oznacza zachęcanie użytkowników do spędzania na danej platformie (nie)możliwie dużo czasu – żeby obejrzeli jak najwięcej reklam, a przy tym zostawili jeszcze więcej danych, które będą dalej zasilać algorytmy reklamowe. Reklama behawioralna, na której bazują platformy internetowe, polega na dobieraniu treści pod kątem określonych cech użytkowników i użytkowniczek. Podstawowe dane, takie jak wiek czy płeć podawane przy zakładaniu konta, to jednak jedynie ułamek informacji, które przetwarzają na nasz temat firmy internetowe. Bardziej interesujące z punktu widzenia reklamodawców dane, takie jak nasze zainteresowania i cechy osobowości, algorytmy platform „wywnioskowują”, analizując nasze zachowanie w sieci – na platformie i poza nią. DSA szansą na zmianę? Projekt DSA (aktu o usługach cyfrowych) przedstawiony przez Komisję Europejską dotyczy różnych aspektów funkcjonowania platform. Największe zainteresowanie wzbudziły m.in. nowe reguły moderacji treści. To ważny temat, ale jednocześnie wygodny dla platform, ponieważ nie zagraża obecnemu, opartemu na śledzeniu, modelowi biznesowemu, który big tech chce utrzymać. Kluczem do zmiany tego modelu mogłyby być regulacje dotyczące działania algorytmów. Niestety, propozycje Komisji są w tym zakresie daleko niewystarczające. Jednak organizacje społeczne nie zamierzają odpuszczać. W liście otwartym do europosłów i europosłanek Panoptykon i 49 innych organizacji upominają się o to, by w DSA zawrzeć mechanizmy, które pozwolą ograniczyć negatywne skutki wykorzystywania algorytmów przez platformy i poddać je większej kontroli. Mamy konkretne pomysły, jak to zrobić. Po pierwsze, domyślna ochrona przed śledzeniem. Rezygnacja z ochrony prywatności nie powinna być warunkiem korzystania z usługi. DSA powinno co do zasady zakazywać wykorzystywania w systemach rekomendacyjnych oraz do personalizowania reklam na platformach danych osobowych, których użytkownicy i użytkowniczki sami wprost nie podali, a także wprowadzających w błąd interfejsów i wymuszających „zgody” banerów, z którymi mamy do czynienia obecnie. Po drugie, przejrzysta informacja, jak działa algorytm. Dopiero mając pełną wiedzę o tym, na podstawie jakich informacji i w jaki sposób dobierane są wyświetlane im materiały, użytkownicy będą mogli dokonać świadomego wyboru, czy chcą być śledzeni i otrzymywać spersonalizowane treści. Po trzecie, dostęp do danych dla badaczy, dziennikarzy i organizacji społecznych. Dzięki temu będzie można badać działanie algorytmów i kontrolować skutki ich wykorzystania. To, co dziś wiemy o szkodach, które powodują, zawdzięczamy właśnie tym grupom. Do tej pory badania uzależnione były od dobrej woli firm internetowych – a ta ma swoje granice (zwłaszcza gdy badacze wyciągają niewygodne wnioski, o czym niedawno przekonał się AlgorithmWatch). Po czwarte (ale może najważniejsze), możliwość wpływania na system rekomendacyjny przez użytkowników. Powinni oni mieć realną możliwość decydowania o tym, jakie kryteria są brane pod uwagę przy dobieraniu treści. A jeśli nie będą zadowoleni z wbudowanego algorytmu platformy, powinni móc skorzystać z niezależnego systemu – komercyjnego lub nie – którego działanie bardziej im odpowiada, ponieważ opiera się na innym modelu niż „klikalność za wszelką cenę” i premiuje np. wiarygodne, lepsze jakościowo treści (na podobnej zasadzie jak mogą skorzystać z wyszukiwarki, z którą współpracuje przeglądarka internetowa, ale mogą też skorzystać z dowolnej innej). Wielka reforma ochrony danych osobowych w Unii Europejskiej sprzed kilku lat niestety nie rozwiązała w praktyce problemów związanych z działaniem karmionych danymi algorytmów. Zamiast realnego wpływu na to, jakie dane są gromadzone i wykorzystywane w celach reklamowych, dostaliśmy irytujące banery wymuszające zgodę na śledzenie w sieci i przydługie regulaminy, na które trzeba się zgodzić, żeby korzystać z usługi. Nowy akt o usługach cyfrowych to unikalna okazja, by to zmienić. Czy europosłowie i europosłanki ją wykorzystają? Czas pokaże, ale nie zamierzamy czekać bezczynnie. Pełna treść listu otwartego (w jęz. angielskim) [PDF] Anna Obem, Dorota Głowacka Fundacja Panoptykon Autor Temat media społecznościowe nowy cyfrowy ład Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Podcast Jeszcze uwodzenie czy już wykorzystanie? O mediach społecznościowych. Rozmowa z Magdaleną Bigaj Dziś w podcaście gości Magdalena Bigaj, współautorka badań nad higieną cyfrową, założycielka i prezeska Instytutu Cyfrowego Obywatelstwa, autorka książki Wychowanie przy ekranie. Jak przygotować dzieci do życia w sieci? W rozmowie z Katarzyną Szymielewicz mówi o teście higieny cyfrowej i… 06.04.2023 Dźwięk Artykuł Wybory bez dezinformacji – ruszają zapisy na warsztaty dla dziennikarek i dziennikarzy W ostatnich latach w co najmniej 18 krajach dezinformacja mogła mieć negatywny wpływ na demokratyczne procesy wyborcze. Czy problem ten może dotyczyć także zbliżających się wyborów samorządowych w Polsce? Jak do tego nie dopuścić? 20.08.2018 Tekst Artykuł Francuzi karzą Google′a. Co z tego wynika dla polskich firm? Decyzja CNIL zapadła w siedem miesięcy od złożenia skargi przez dwie organizacje, które symbolicznie zakwestionowały standard ochrony danych w usługach Google już pierwszego dnia obowiązywania RODO. 11.02.2019 Tekst