Artykuł 18.11.2022 6 min. czytania Tekst Image Łapka w górę, łapka w dół, klikanie „nie interesuje mnie to” i „nie polecaj kanału”, a nawet próby zostawiania fałszywych tropów, żeby zmylić algorytm – wszystko na nic. YouTube lepiej wie, jakie treści chcesz obejrzeć, i nie zmienia łatwo zdania pod wpływem twojego widzimisię. Eksperyment Mozilla Foundation potwierdza, że nie da się skutecznie wpłynąć na rekomendowane treści – ani za pomocą narzędzi udostępnianych przez Google, ani partyzanckimi sposobami użytkowników. Jak wpłynąć na rekomendowanie treści na YouTubie? 22 727 osób ściągnęło wtyczkę RegretsReporter przygotowaną przez Mozilla Foundation. Za jej pomocą udostępniły badaczom bibliotekę ponad pół miliarda (dokładnie 567 880 195) filmów, które poleciła im platforma. Użytkownicy YouTube’a mają do dyspozycji kilka narzędzi, które dają im pozorny wpływ na to, jakie treści będą im rekomendowane. Jeśli podoba ci się to, co oglądasz, możesz to polubić, subskrybować kanał, udostępnić. Masz również kilka możliwości wyrażenia krytycznej opinii: kliknięcie łapki w dół (chociaż nie możesz łatwo podejrzeć, ile innych osób to zrobiło), zaznaczenie opcji „nie interesuje mnie to” czy „nie polecaj kanału”. Ponad 1/3 osób, która wzięła udział w eksperymencie Mozilli, stwierdziła, że korzystanie z narzędzi YouTube’a w ogóle nie wpłynęło na zmianę rekomendowanych wideo. Przechytrzyć algorytm YouTube’a Takie zachowanie platformy powoduje, że użytkownicy i użytkowniczki zaczynają szukać własnych sposobów na „przekonanie” algorytmu. Tworzą playlisty, blokują niechciane kanały, wyłączają rekomendacje i personalizację, przełączają się z trybu autoodtwarzania na odtwarzanie losowe. Niektórzy idą dalej: unikają rekomendowanych wideo, po kilka razy oglądają filmy, które im się spodobały, przełączają się na tryb incognito, tworzą nowe konta, czyszczą cookies i historię przeglądania… Niektórzy uczestnicy badania Mozilli zauważali, że rekomendacje stopniowo się zmieniały, ale wymagało to znacznej ilości czasu i trwałego wysiłku z ich strony. Algorytmy traumy To kolejny – po naszych Algorytmach traumy – eksperyment na użytkownikach, który pokazuje problem z toksycznymi algorytmami używanymi do personalizowania treści w mediach społecznościowych. Algorytmy optymalizowane na to, aby jak najdłużej angażować naszą uwagę, które tak irytują użytkowników YouTube’a, mogą powodować też podsycanie niepokoju i radykalizację użytkowników, a także odpowiadać za rozprzestrzenianie się dezinformacji i ograniczanie wolności słowa. W przypadku YouTuba dowody na to można znaleźć choćby w poprzednim raporcie Mozilla Foundation (chociaż należy też oddać tej platformie, że np. w zakresie przeciwdziałania rozpowszechnianiu dezinformacji dotyczącej wojny na Ukrainie jej algorytmy rekomendacyjne wydają się radzić sobie lepiej niż Facebook czy Twitter). Jest szansa, że status quo zmieni wchodzący niedługo w życie akt o usługach cyfrowych (DSA, Digital Services Act). DSA nie nakazuje wprawdzie platformom dbania o zdrowy newsfeed i rekomendacje zgodne z potrzebami użytkowników. Nakłada jednak obowiązek udostępnienia przez największe platformy przynajmniej jednego alternatywnego systemu rekomendacyjnego – nieopartego na profilowaniu. Zobaczymy, jak będzie to funkcjonowało w praktyce. DSA obliguje też platformy do stałej oceny systemowego ryzyka związanego ze stosowaniem m.in. algorytmów doboru treści – np. weryfikacji, czy nie powodują one podbijania zasięgów toksycznych treści. Zobowiązuje też platformy do udostępniania danych o działaniu ich algorytmów badaczom i organizacjom społecznym, dzięki czemu będą mogli ujawniać kolejne dowody na ich toksyczny wpływ na użytkowników i społeczeństwo. Pozostaje mieć nadzieję, że pod presją kolejnych doniesień badaczy osoby podejmujące decyzje o tym, jak działają algorytmy, przestaną unikać odpowiedzialności i wreszcie coś zmienią. Polecamy: Mozilla Foundation: YouTube User Control Study Ilustracja: Mozilla Foundation (CC-BY) Działania organizacji w latach 2022-24 dofinansowane z Funduszy Norweskich w ramach programu Aktywni Obywatele – Fundusz Krajowy. Anna Obem Autorka Temat profilowanie Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Czy jeszcze wybieramy? Zapraszamy na rozmowę o marketingu politycznym 2.0 [Aktualizacja: zapis sesji Marketing Polityczny 2.0. jest dostępny na kanale Concillium Civitas] W jaki sposób podejmujemy decyzje wyborcze? Czy ten, kto zna nasze potrzeby i słabości, rzeczywiście może sprawić, że zmienimy swoje poglądy, a przynajmniej skutecznie nas zniechęcić do… 27.06.2019 Tekst Artykuł Prawo do wyjaśnienia decyzji kredytowej dla każdego! Sukces Panoptykonu! Po dzisiejszym posiedzeniu połączonych komisji sejmowych mamy dobre wiadomości: udało się przekonać rząd i posłów do wprowadzenia zmian w prawie bankowym, które zmienią proces przyznawania kredytów. W miejsce „czarnej skrzynki”, która wypluwa niezrozumiałe decyzje bez uzasadnienia, ma się pojawić… 13.02.2019 Tekst Artykuł Propaganda na Facebooku: kto i jak chce wpływać na wyborców Wraz ze startem kampanii wyborczej ruszyła akcja „Kto cię namierzył”. Jej inicjatorzy zwracają uwagę na problem jawności działań propagandowych prowadzonych na Facebooku oraz związanych z nimi możliwości manipulacji. Zachęcają też użytkowników Facebooka do korzystania z wtyczki „Kto cię namierzył”… 13.08.2019 Tekst