Artykuł 22.09.2021 5 min. czytania Tekst Image Lista szkodliwych skutków ubocznych tego, jak dominujące platformy internetowe kształtują nasz obraz świata, jest długa. Żerowanie na słabościach użytkowników, negatywny wpływ na poczucie własnej wartości, dyskryminacja, manipulacja, promowanie toksycznych treści i intensyfikacja radykalizacji – to te najpoważniejsze. Fundacja Panoptykon i 49 organizacji społecznych z całej Europy w liście otwartym do europarlamentarzystów zwracają uwagę, że problemy te może rozwiązać większa kontrola nad algorytmami wykorzystywanymi przez platformy do personalizowania treści. Lepszej okazji ku temu niż przygotowywana właśnie regulacja usług cyfrowych – Digital Services Act – nie będzie. Ciemna strona algorytmów Porządkowaniem i podsuwaniem nam treści, które oglądamy na Facebooku czy YouTubie, zajmują się algorytmy. I to nie byle jakie! Dziś to karmiona danymi użytkowników i użytkowniczek sztuczna inteligencja, której zadaniem jest maksymalizowanie zysków platformy z reklam. A to oznacza zachęcanie użytkowników do spędzania na danej platformie (nie)możliwie dużo czasu – żeby obejrzeli jak najwięcej reklam, a przy tym zostawili jeszcze więcej danych, które będą dalej zasilać algorytmy reklamowe. Reklama behawioralna, na której bazują platformy internetowe, polega na dobieraniu treści pod kątem określonych cech użytkowników i użytkowniczek. Podstawowe dane, takie jak wiek czy płeć podawane przy zakładaniu konta, to jednak jedynie ułamek informacji, które przetwarzają na nasz temat firmy internetowe. Bardziej interesujące z punktu widzenia reklamodawców dane, takie jak nasze zainteresowania i cechy osobowości, algorytmy platform „wywnioskowują”, analizując nasze zachowanie w sieci – na platformie i poza nią. DSA szansą na zmianę? Projekt DSA (aktu o usługach cyfrowych) przedstawiony przez Komisję Europejską dotyczy różnych aspektów funkcjonowania platform. Największe zainteresowanie wzbudziły m.in. nowe reguły moderacji treści. To ważny temat, ale jednocześnie wygodny dla platform, ponieważ nie zagraża obecnemu, opartemu na śledzeniu, modelowi biznesowemu, który big tech chce utrzymać. Kluczem do zmiany tego modelu mogłyby być regulacje dotyczące działania algorytmów. Niestety, propozycje Komisji są w tym zakresie daleko niewystarczające. Jednak organizacje społeczne nie zamierzają odpuszczać. W liście otwartym do europosłów i europosłanek Panoptykon i 49 innych organizacji upominają się o to, by w DSA zawrzeć mechanizmy, które pozwolą ograniczyć negatywne skutki wykorzystywania algorytmów przez platformy i poddać je większej kontroli. Mamy konkretne pomysły, jak to zrobić. Po pierwsze, domyślna ochrona przed śledzeniem. Rezygnacja z ochrony prywatności nie powinna być warunkiem korzystania z usługi. DSA powinno co do zasady zakazywać wykorzystywania w systemach rekomendacyjnych oraz do personalizowania reklam na platformach danych osobowych, których użytkownicy i użytkowniczki sami wprost nie podali, a także wprowadzających w błąd interfejsów i wymuszających „zgody” banerów, z którymi mamy do czynienia obecnie. Po drugie, przejrzysta informacja, jak działa algorytm. Dopiero mając pełną wiedzę o tym, na podstawie jakich informacji i w jaki sposób dobierane są wyświetlane im materiały, użytkownicy będą mogli dokonać świadomego wyboru, czy chcą być śledzeni i otrzymywać spersonalizowane treści. Po trzecie, dostęp do danych dla badaczy, dziennikarzy i organizacji społecznych. Dzięki temu będzie można badać działanie algorytmów i kontrolować skutki ich wykorzystania. To, co dziś wiemy o szkodach, które powodują, zawdzięczamy właśnie tym grupom. Do tej pory badania uzależnione były od dobrej woli firm internetowych – a ta ma swoje granice (zwłaszcza gdy badacze wyciągają niewygodne wnioski, o czym niedawno przekonał się AlgorithmWatch). Po czwarte (ale może najważniejsze), możliwość wpływania na system rekomendacyjny przez użytkowników. Powinni oni mieć realną możliwość decydowania o tym, jakie kryteria są brane pod uwagę przy dobieraniu treści. A jeśli nie będą zadowoleni z wbudowanego algorytmu platformy, powinni móc skorzystać z niezależnego systemu – komercyjnego lub nie – którego działanie bardziej im odpowiada, ponieważ opiera się na innym modelu niż „klikalność za wszelką cenę” i premiuje np. wiarygodne, lepsze jakościowo treści (na podobnej zasadzie jak mogą skorzystać z wyszukiwarki, z którą współpracuje przeglądarka internetowa, ale mogą też skorzystać z dowolnej innej). Wielka reforma ochrony danych osobowych w Unii Europejskiej sprzed kilku lat niestety nie rozwiązała w praktyce problemów związanych z działaniem karmionych danymi algorytmów. Zamiast realnego wpływu na to, jakie dane są gromadzone i wykorzystywane w celach reklamowych, dostaliśmy irytujące banery wymuszające zgodę na śledzenie w sieci i przydługie regulaminy, na które trzeba się zgodzić, żeby korzystać z usługi. Nowy akt o usługach cyfrowych to unikalna okazja, by to zmienić. Czy europosłowie i europosłanki ją wykorzystają? Czas pokaże, ale nie zamierzamy czekać bezczynnie. Pełna treść listu otwartego (w jęz. angielskim) [PDF] Anna Obem, Dorota Głowacka Fundacja Panoptykon Autor Temat media społecznościowe nowy cyfrowy ład Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Kto rozgrywa debatę polityczną na Twitterze? Wnioski z badania Na przełomie września i października 2017 r. – wtedy, kiedy na ulicy i w sieci wrzało od obywatelskiego poruszenia (czarny protest, protest rezydentów, wolne sądy, debata o reprywatyzacji) – postanowiliśmy przyjrzeć się debacie politycznej na polskim Twitterze. Byliśmy ciekawi, kto kreuje… 06.04.2018 Tekst Podcast Kulturalnie o technologii. Rozmowa z Jakubem Szamałkiem W popkulturze relacja człowieka i technologii to temat stale eksploatowany. Zwykle nie gramy w jednej drużynie. Skąd bierze się technofobia? Czego boimy się najbardziej? Czy groźna cyberprzyszłość jest już naszym udziałem? Zapraszamy na kolejny wakacyjny odcinek podcastu Panoptykon 4.0. … 01.08.2019 Dźwięk Artykuł Kto cię namierzył: dziękujemy i zapraszamy do zapisania się na raport! 6238 – tyle osób zainstalowało wtyczkę „Kto cię namierzył”, pomagając nam w badaniu mikrotargetowania politycznego w kampanii wyborczej do Sejmu i Senatu. Dziękujemy! 16.10.2019 Tekst