Artykuł 18.11.2022 6 min. czytania Tekst Image Łapka w górę, łapka w dół, klikanie „nie interesuje mnie to” i „nie polecaj kanału”, a nawet próby zostawiania fałszywych tropów, żeby zmylić algorytm – wszystko na nic. YouTube lepiej wie, jakie treści chcesz obejrzeć, i nie zmienia łatwo zdania pod wpływem twojego widzimisię. Eksperyment Mozilla Foundation potwierdza, że nie da się skutecznie wpłynąć na rekomendowane treści – ani za pomocą narzędzi udostępnianych przez Google, ani partyzanckimi sposobami użytkowników. Jak wpłynąć na rekomendowanie treści na YouTubie? 22 727 osób ściągnęło wtyczkę RegretsReporter przygotowaną przez Mozilla Foundation. Za jej pomocą udostępniły badaczom bibliotekę ponad pół miliarda (dokładnie 567 880 195) filmów, które poleciła im platforma. Użytkownicy YouTube’a mają do dyspozycji kilka narzędzi, które dają im pozorny wpływ na to, jakie treści będą im rekomendowane. Jeśli podoba ci się to, co oglądasz, możesz to polubić, subskrybować kanał, udostępnić. Masz również kilka możliwości wyrażenia krytycznej opinii: kliknięcie łapki w dół (chociaż nie możesz łatwo podejrzeć, ile innych osób to zrobiło), zaznaczenie opcji „nie interesuje mnie to” czy „nie polecaj kanału”. Ponad 1/3 osób, która wzięła udział w eksperymencie Mozilli, stwierdziła, że korzystanie z narzędzi YouTube’a w ogóle nie wpłynęło na zmianę rekomendowanych wideo. Przechytrzyć algorytm YouTube’a Takie zachowanie platformy powoduje, że użytkownicy i użytkowniczki zaczynają szukać własnych sposobów na „przekonanie” algorytmu. Tworzą playlisty, blokują niechciane kanały, wyłączają rekomendacje i personalizację, przełączają się z trybu autoodtwarzania na odtwarzanie losowe. Niektórzy idą dalej: unikają rekomendowanych wideo, po kilka razy oglądają filmy, które im się spodobały, przełączają się na tryb incognito, tworzą nowe konta, czyszczą cookies i historię przeglądania… Niektórzy uczestnicy badania Mozilli zauważali, że rekomendacje stopniowo się zmieniały, ale wymagało to znacznej ilości czasu i trwałego wysiłku z ich strony. Algorytmy traumy To kolejny – po naszych Algorytmach traumy – eksperyment na użytkownikach, który pokazuje problem z toksycznymi algorytmami używanymi do personalizowania treści w mediach społecznościowych. Algorytmy optymalizowane na to, aby jak najdłużej angażować naszą uwagę, które tak irytują użytkowników YouTube’a, mogą powodować też podsycanie niepokoju i radykalizację użytkowników, a także odpowiadać za rozprzestrzenianie się dezinformacji i ograniczanie wolności słowa. W przypadku YouTuba dowody na to można znaleźć choćby w poprzednim raporcie Mozilla Foundation (chociaż należy też oddać tej platformie, że np. w zakresie przeciwdziałania rozpowszechnianiu dezinformacji dotyczącej wojny na Ukrainie jej algorytmy rekomendacyjne wydają się radzić sobie lepiej niż Facebook czy Twitter). Jest szansa, że status quo zmieni wchodzący niedługo w życie akt o usługach cyfrowych (DSA, Digital Services Act). DSA nie nakazuje wprawdzie platformom dbania o zdrowy newsfeed i rekomendacje zgodne z potrzebami użytkowników. Nakłada jednak obowiązek udostępnienia przez największe platformy przynajmniej jednego alternatywnego systemu rekomendacyjnego – nieopartego na profilowaniu. Zobaczymy, jak będzie to funkcjonowało w praktyce. DSA obliguje też platformy do stałej oceny systemowego ryzyka związanego ze stosowaniem m.in. algorytmów doboru treści – np. weryfikacji, czy nie powodują one podbijania zasięgów toksycznych treści. Zobowiązuje też platformy do udostępniania danych o działaniu ich algorytmów badaczom i organizacjom społecznym, dzięki czemu będą mogli ujawniać kolejne dowody na ich toksyczny wpływ na użytkowników i społeczeństwo. Pozostaje mieć nadzieję, że pod presją kolejnych doniesień badaczy osoby podejmujące decyzje o tym, jak działają algorytmy, przestaną unikać odpowiedzialności i wreszcie coś zmienią. Polecamy: Mozilla Foundation: YouTube User Control Study Ilustracja: Mozilla Foundation (CC-BY) Działania organizacji w latach 2022-24 dofinansowane z Funduszy Norweskich w ramach programu Aktywni Obywatele – Fundusz Krajowy. Anna Obem Autorka Temat profilowanie Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Dlaczego bank odmówił Ci kredytu? Jaki jest bankowy przepis na wiarygodnego klienta? Co wiemy o typach i stereotypach zaszytych w modelach scoringowych? Czy rzeczywiście niosą ze sobą ryzyko dyskryminacji? Skoro matematyka i statystyka mają coraz większy wpływ na nasze życiowe decyzje – na to, czy kupimy własne mieszkanie albo… 03.01.2019 Tekst Artykuł Parlament Europejski zagłosował za reklamą polityczną bez manipulujących algorytmów Reklamy polityczne dostarczane tylko na podstawie danych wprost i świadomie podanych przez użytkowników – Parlament Europejski przyjął swoje stanowisko ws. rozporządzenia o przejrzystości reklam politycznych. Zakazuje ono przetwarzania danych zaobserwowanych i wywnioskowanych na potrzeby… 17.02.2023 Tekst Artykuł Katarzyna Szymielewicz: Rynek nie poradzi sobie z cyfrowymi gigantami. Do gry musi wejść regulator Mierzymy się z upadkiem niezależnych mediów, z uzależnieniem ludzi od informacyjnych bodźców, z zanikiem krytycznego myślenia i coraz lepiej kamuflowaną manipulacją, która zniekształca debatę publiczną w kluczowych dla demokracji momentach. Wobec tych zagrożeń musimy odejść od liberalnego założenia… 15.10.2019 Tekst