Artykuł 18.11.2022 6 min. czytania Tekst Image Łapka w górę, łapka w dół, klikanie „nie interesuje mnie to” i „nie polecaj kanału”, a nawet próby zostawiania fałszywych tropów, żeby zmylić algorytm – wszystko na nic. YouTube lepiej wie, jakie treści chcesz obejrzeć, i nie zmienia łatwo zdania pod wpływem twojego widzimisię. Eksperyment Mozilla Foundation potwierdza, że nie da się skutecznie wpłynąć na rekomendowane treści – ani za pomocą narzędzi udostępnianych przez Google, ani partyzanckimi sposobami użytkowników. Jak wpłynąć na rekomendowanie treści na YouTubie? 22 727 osób ściągnęło wtyczkę RegretsReporter przygotowaną przez Mozilla Foundation. Za jej pomocą udostępniły badaczom bibliotekę ponad pół miliarda (dokładnie 567 880 195) filmów, które poleciła im platforma. Użytkownicy YouTube’a mają do dyspozycji kilka narzędzi, które dają im pozorny wpływ na to, jakie treści będą im rekomendowane. Jeśli podoba ci się to, co oglądasz, możesz to polubić, subskrybować kanał, udostępnić. Masz również kilka możliwości wyrażenia krytycznej opinii: kliknięcie łapki w dół (chociaż nie możesz łatwo podejrzeć, ile innych osób to zrobiło), zaznaczenie opcji „nie interesuje mnie to” czy „nie polecaj kanału”. Ponad 1/3 osób, która wzięła udział w eksperymencie Mozilli, stwierdziła, że korzystanie z narzędzi YouTube’a w ogóle nie wpłynęło na zmianę rekomendowanych wideo. Przechytrzyć algorytm YouTube’a Takie zachowanie platformy powoduje, że użytkownicy i użytkowniczki zaczynają szukać własnych sposobów na „przekonanie” algorytmu. Tworzą playlisty, blokują niechciane kanały, wyłączają rekomendacje i personalizację, przełączają się z trybu autoodtwarzania na odtwarzanie losowe. Niektórzy idą dalej: unikają rekomendowanych wideo, po kilka razy oglądają filmy, które im się spodobały, przełączają się na tryb incognito, tworzą nowe konta, czyszczą cookies i historię przeglądania… Niektórzy uczestnicy badania Mozilli zauważali, że rekomendacje stopniowo się zmieniały, ale wymagało to znacznej ilości czasu i trwałego wysiłku z ich strony. Algorytmy traumy To kolejny – po naszych Algorytmach traumy – eksperyment na użytkownikach, który pokazuje problem z toksycznymi algorytmami używanymi do personalizowania treści w mediach społecznościowych. Algorytmy optymalizowane na to, aby jak najdłużej angażować naszą uwagę, które tak irytują użytkowników YouTube’a, mogą powodować też podsycanie niepokoju i radykalizację użytkowników, a także odpowiadać za rozprzestrzenianie się dezinformacji i ograniczanie wolności słowa. W przypadku YouTuba dowody na to można znaleźć choćby w poprzednim raporcie Mozilla Foundation (chociaż należy też oddać tej platformie, że np. w zakresie przeciwdziałania rozpowszechnianiu dezinformacji dotyczącej wojny na Ukrainie jej algorytmy rekomendacyjne wydają się radzić sobie lepiej niż Facebook czy Twitter). Jest szansa, że status quo zmieni wchodzący niedługo w życie akt o usługach cyfrowych (DSA, Digital Services Act). DSA nie nakazuje wprawdzie platformom dbania o zdrowy newsfeed i rekomendacje zgodne z potrzebami użytkowników. Nakłada jednak obowiązek udostępnienia przez największe platformy przynajmniej jednego alternatywnego systemu rekomendacyjnego – nieopartego na profilowaniu. Zobaczymy, jak będzie to funkcjonowało w praktyce. DSA obliguje też platformy do stałej oceny systemowego ryzyka związanego ze stosowaniem m.in. algorytmów doboru treści – np. weryfikacji, czy nie powodują one podbijania zasięgów toksycznych treści. Zobowiązuje też platformy do udostępniania danych o działaniu ich algorytmów badaczom i organizacjom społecznym, dzięki czemu będą mogli ujawniać kolejne dowody na ich toksyczny wpływ na użytkowników i społeczeństwo. Pozostaje mieć nadzieję, że pod presją kolejnych doniesień badaczy osoby podejmujące decyzje o tym, jak działają algorytmy, przestaną unikać odpowiedzialności i wreszcie coś zmienią. Polecamy: Mozilla Foundation: YouTube User Control Study Ilustracja: Mozilla Foundation (CC-BY) Działania organizacji w latach 2022-24 dofinansowane z Funduszy Norweskich w ramach programu Aktywni Obywatele – Fundusz Krajowy. Anna Obem Autorka Temat profilowanie Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Która partia ma Cię na celowniku? Zainstaluj wtyczkę! Jak politycy mogą manipulować w sieci, żeby zdobyć Twój głos w wyborach? Jednym ze sposobów może być rozpowszechnianie tzw. targetowanych reklam politycznych w mediach społecznościowych. W Polsce wciąż mało wiemy o tym zjawisku. Dzięki wtyczce Who Targets Me dowiesz się, która partia próbuje… 14.05.2019 Tekst Artykuł Czy prywatność w sieci jest możliwa (i zależy wyłącznie od ciebie)? Prywatność w sieci możliwa jest już dziś. Dużo zależy od naszych codziennych wyborów technologicznych. Choć w przypadku niektórych z nich poprzeczka ustawiona jest dość wysoko, jeśli chodzi o niezbędną wiedzę, to nasze decyzje przy urnach wyborczych i nasz głos w konsultacjach społecznych może… 03.08.2023 Tekst Podcast Cyfrowy wyścig zbrojeń. Rozmowa z Mateuszem Chrobokiem Głos, obraz tęczówki, wizerunek – są coraz powszechniej używane jako nowy rodzaj zabezpieczenia usług i urządzeń. Niewiele osób zastanawia się nad tym, jak potwierdzi swoją tożsamość, kiedy cyberprzestępcy dostaną się do baz i z tymi danymi. Czy istnieje bezpieczniejsza alternatywa? Czy jest nią… 04.07.2019 Dźwięk