Artykuł 18.11.2022 6 min. czytania Tekst Image Łapka w górę, łapka w dół, klikanie „nie interesuje mnie to” i „nie polecaj kanału”, a nawet próby zostawiania fałszywych tropów, żeby zmylić algorytm – wszystko na nic. YouTube lepiej wie, jakie treści chcesz obejrzeć, i nie zmienia łatwo zdania pod wpływem twojego widzimisię. Eksperyment Mozilla Foundation potwierdza, że nie da się skutecznie wpłynąć na rekomendowane treści – ani za pomocą narzędzi udostępnianych przez Google, ani partyzanckimi sposobami użytkowników. Jak wpłynąć na rekomendowanie treści na YouTubie? 22 727 osób ściągnęło wtyczkę RegretsReporter przygotowaną przez Mozilla Foundation. Za jej pomocą udostępniły badaczom bibliotekę ponad pół miliarda (dokładnie 567 880 195) filmów, które poleciła im platforma. Użytkownicy YouTube’a mają do dyspozycji kilka narzędzi, które dają im pozorny wpływ na to, jakie treści będą im rekomendowane. Jeśli podoba ci się to, co oglądasz, możesz to polubić, subskrybować kanał, udostępnić. Masz również kilka możliwości wyrażenia krytycznej opinii: kliknięcie łapki w dół (chociaż nie możesz łatwo podejrzeć, ile innych osób to zrobiło), zaznaczenie opcji „nie interesuje mnie to” czy „nie polecaj kanału”. Ponad 1/3 osób, która wzięła udział w eksperymencie Mozilli, stwierdziła, że korzystanie z narzędzi YouTube’a w ogóle nie wpłynęło na zmianę rekomendowanych wideo. Przechytrzyć algorytm YouTube’a Takie zachowanie platformy powoduje, że użytkownicy i użytkowniczki zaczynają szukać własnych sposobów na „przekonanie” algorytmu. Tworzą playlisty, blokują niechciane kanały, wyłączają rekomendacje i personalizację, przełączają się z trybu autoodtwarzania na odtwarzanie losowe. Niektórzy idą dalej: unikają rekomendowanych wideo, po kilka razy oglądają filmy, które im się spodobały, przełączają się na tryb incognito, tworzą nowe konta, czyszczą cookies i historię przeglądania… Niektórzy uczestnicy badania Mozilli zauważali, że rekomendacje stopniowo się zmieniały, ale wymagało to znacznej ilości czasu i trwałego wysiłku z ich strony. Algorytmy traumy To kolejny – po naszych Algorytmach traumy – eksperyment na użytkownikach, który pokazuje problem z toksycznymi algorytmami używanymi do personalizowania treści w mediach społecznościowych. Algorytmy optymalizowane na to, aby jak najdłużej angażować naszą uwagę, które tak irytują użytkowników YouTube’a, mogą powodować też podsycanie niepokoju i radykalizację użytkowników, a także odpowiadać za rozprzestrzenianie się dezinformacji i ograniczanie wolności słowa. W przypadku YouTuba dowody na to można znaleźć choćby w poprzednim raporcie Mozilla Foundation (chociaż należy też oddać tej platformie, że np. w zakresie przeciwdziałania rozpowszechnianiu dezinformacji dotyczącej wojny na Ukrainie jej algorytmy rekomendacyjne wydają się radzić sobie lepiej niż Facebook czy Twitter). Jest szansa, że status quo zmieni wchodzący niedługo w życie akt o usługach cyfrowych (DSA, Digital Services Act). DSA nie nakazuje wprawdzie platformom dbania o zdrowy newsfeed i rekomendacje zgodne z potrzebami użytkowników. Nakłada jednak obowiązek udostępnienia przez największe platformy przynajmniej jednego alternatywnego systemu rekomendacyjnego – nieopartego na profilowaniu. Zobaczymy, jak będzie to funkcjonowało w praktyce. DSA obliguje też platformy do stałej oceny systemowego ryzyka związanego ze stosowaniem m.in. algorytmów doboru treści – np. weryfikacji, czy nie powodują one podbijania zasięgów toksycznych treści. Zobowiązuje też platformy do udostępniania danych o działaniu ich algorytmów badaczom i organizacjom społecznym, dzięki czemu będą mogli ujawniać kolejne dowody na ich toksyczny wpływ na użytkowników i społeczeństwo. Pozostaje mieć nadzieję, że pod presją kolejnych doniesień badaczy osoby podejmujące decyzje o tym, jak działają algorytmy, przestaną unikać odpowiedzialności i wreszcie coś zmienią. Polecamy: Mozilla Foundation: YouTube User Control Study Ilustracja: Mozilla Foundation (CC-BY) Działania organizacji w latach 2022-24 dofinansowane z Funduszy Norweskich w ramach programu Aktywni Obywatele – Fundusz Krajowy. Anna Obem Autorka Temat profilowanie Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Podcast O statystyce, Facebooku i mikrotargetingu. Rozmowa z Dominikiem Batorskim Czy dla reklamodawcy jesteśmy tylko targetem? Jak Facebook zmienił świat reklamy internetowej? Czy mikrotargeting jest etyczny? – opowiada Dominik Batorski, adiunkt w Interdyscyplinarnym Centrum Modelowania Matematycznego i Komputerowego na Uniwersytecie Warszawskim i współzałożyciel firmy… 14.11.2018 Dźwięk Artykuł Skargi na Google’a i IAB trafiły już do 15 krajów Walka z nieprzejrzystymi praktykami firm z branży reklamy interaktywnej toczy się nie tylko w Polsce, gdzie zapoczątkowały ją nasze skargi na Google’a i IAB – nieformalnych regulatorów rynku. Analogiczne skargi trafiły łącznie aż do 14 innych organów ochrony danych, m.in. w Irlandii, Niemczech,… 04.06.2019 Tekst Artykuł ePrywatność czy eŚledzenie – czy branża reklamowa postawi na swoim? Pod wpływem lobbingu branży reklamowej w ostatniej wersji rozporządzenia ePrivacy pojawił się przepis, który legalizuje ciasteczka i skrypty śledzące dla tych usług, które utrzymują się z reklam. Za tą zmianą kryje się prosta logika: zamiast pytać użytkowników o zgodę (która i tak w wielu… 26.10.2018 Tekst