Artykuł 18.02.2025 22 min. czytania Tekst Image Widok na żywo z międzynarodowej stacji kosmicznej obok „spotkania” astronautów z kosmitami czy oficjalny kanał Świnki Peppy, a w rekomendacjach wulgarne przeróbki, to nie jedyne problemy z algorytmem, na które skarżą się i użytkownicy YouTube’a, i badacze. Jakie jeszcze ryzyka wiążą się z działaniem platformy? Jakie dostrzega sam Google? Analizujemy raport.Uwaga! Ze względu na obszerny materiał skupiliśmy się w tekście na kwestiach, które są niechętnie podejmowane w debacie o prywatności: na algorytmach rekomendacyjnych YouTube’a oraz na projektowaniu usług.Firma Google (Alphabet) przygotowała wspólny raport dla wszystkich swoich usług. Lista ryzyk, które firma zdefiniowała dla platformy YouTube, wcale nas nie zaskakuje, wręcz kiwamy z aprobatą głowami. Na liście znalazły się także zagrożenia, które są szczególnie interesujące, jeśli chodzi o prywatność i wpływ (i to nie pozytywny!) platformy na rzeczywistość:zagrożenia związane z wpływem na dyskurs publiczny (np. ryzyko, że prezentacja treści negatywnie wpływa na różnorodność głosów, opinii i perspektyw w mediach);negatywny wpływ na zdrowie publiczne (np. gdy na platformie znajdują się treści promujące praktyki szkodliwe dla zdrowia);oddziaływanie na samoocenę i samopoczucie (np. przez pozostawianie komentarzy obelżywych czy stanowiących nękanie);stymulowanie uzależnienia od social mediów;ryzyka związane ze szkodliwą reklamą (szczególnie w kontekście dzieci). Oczywiście to tylko niektóre zagrożenia, lista jest bardzo obszerna. Co wydaje się nam ważniejsze, platformy powinny wskazać, jak będą zapobiegać tym ryzykom.Przekaż 1,5% podatku Fundacji Panoptykon.Walcz o inny Internet!KRS: 0000327613Jak widać, Google dostrzega różne ryzyka związane z działaniem algorytmów odpowiedzialnych za dystrybucję treści na platformie. Niestety, w dalszych częściach raportu, podobnie jak Meta i TikTok, Google najwięcej uwagi poświęca wyzwaniom z zakresu moderacji treści. Zdecydowanie mniej dowiemy się o działaniu systemów rekomendacyjnych czy uzależniających funkcjach serwisu. To zrzucanie odpowiedzialności na użytkownika czy moderatora (niezależnie od tego, czy jest on człowiekiem, czy botem), a przy tym zupełne odwracanie uwagi od faktu, że sam model działania i finansowania platformy też może powodować problemy.Czy da się promować zdrowszy ekosystem?Google deklaruje, że chce promować zdrowszy ekosystem swoich usług. Temu celowi mają służyć system rekomendacyjny i narzędzia monetyzacji treści:„YouTube dokłada starań, żeby być przestrzenią bezpieczną dla użytkowników, reklamodawców i społeczeństwa jako takiego, równoważąc otwartą i swobodną ekspresję. Oprócz usuwania szkodliwych treści wykorzystujemy również nasz system rekomendacyjny i narzędzia monetyzacji, by promować zdrowszy ekosystem”.Fragment raportu z oceny ryzyka firmy GoogleDzieli też ryzyka na dwie grupy (każdej odpowiadają inne działania mające te ryzyka zmniejszać):„Rodzaje ryzyka omówione w (…) raporcie można podzielić na dwie grupy: ryzyko związane z obecnością określonego rodzaju nielegalnych lub naruszających zasady treści oraz ryzyko dla użytkowników wynikające ze sposobu zaprojektowania i funkcjonowania usługi. (…) [N]iektóre zagrożenia są łagodzone poprzez zapobieganie, usuwanie lub zwiększanie widoczności niektórych rodzajów treści, tj. moderowanie treści, a inne są łagodzone poprzez zmianę sposobu projektowania lub funkcjonowania serwisu lub sposobu interakcji użytkowników z usługą”.Fragment raportu z oceny ryzyka firmy GoogleObowiązkowe oceny ryzyka – po co i dlaczegoW listopadzie 2024 r. wielkie platformy internetowe (Very Large Online Platforms, VLOP-y) opublikowały długo oczekiwane raporty z wyników oceny ryzyka. Dowiadujemy się z nich, jak same firmy oceniają wpływ „sposobu projektowania lub funkcjonowania” ich usług (w tym systemów algorytmicznych) na m.in. prawa podstawowe ludzi, ich fizyczny i psychiczny dobrostan, ochronę zdrowia publicznego i małoletnich oraz dyskurs obywatelski i procesy wyborcze.Konieczność przeprowadzania (cyklicznie!) ocen ryzyka wynika z aktu o usługach cyfrowych (Digital Services Act, DSA), który w stosunku do VLOP-ów obowiązuje od sierpnia 2023 r. Jest to jeden z sukcesów rzeczniczych organizacji walczących o prawa cyfrowe (w tym Panoptykonu), bo daje nam wgląd w działalność platform.Jakość to wyzwanie: YouTube chciałby rozwiązać problem systemem rekomendacyjnymNajwiększe platformy mają tę samą mantrę: głównym zagrożeniem są użytkowniczki i użytkownicy „nadużywający” platformy, żeby publikować szkodliwe treści. Podobnie twierdził TikTok, a Mark Zuckerberg publicznie zastanawiał się, dlaczego ludzie zawsze przesyłają treści balansujące na granicy. Image Po wpisaniu w wyszukiwarkę YouTube’a „peppa pig” na koncie użytkowniczki, która maksymalnie chroniła prywatność, film z bałwanem-zombie pojawił się na 6 miejscu w rekomendacjach.Ta bardzo wygodna perspektywa, w której platforma zawsze będzie wybawicielem i jeźdźcem na białym koniu. „Promowanie wysokiej jakości treści i odpowiadanie na szkodliwe treści to dynamiczne wyzwanie, które wymaga ciągłych zmian” – piszą autorzy raportu.Na YouTubie każdej minuty publikowanych jest ponad 500 godzin filmów. Zadbanie o jakość takiego morza treści wymaga ogromnych zasobów – jeśli w ogóle jest możliwe. Z platformy najszybciej znikają treści, które naruszają prawo autorskie (zwłaszcza jeśli tym prawem dysponuje duży amerykański koncern medialny), zaś słynne już w Polsce patostreamy, porady z zakresu „medycyny” alternatywnej i pełne przemocy przeróbki animacji dla dzieci są dalej dostępne.Może chociaż da się je szybko zmoderować? Platforma zauważa, że:„Korzystanie z systemów rekomendacyjnych w celu uporządkowania prezentowanych treści, w tym poprzez podbijanie treści rzetelnych i jakościowych, jest często bardziej proporcjonalnym podejściem do rozwiązywania problemu szkodliwych treści niż całkowite ich usuwanie, które mogłoby stanowić zagrożenie dla wolności wypowiedzi i informacji”.Fragment raportu z oceny ryzyka firmy GoogleJako obrońcy wolności zgadzamy się z tym, że z usuwaniem trzeba ostrożnie. Jednak doświadczenia użytkowników (choćby nasze) pokazują, że z tym promowaniem treści jakościowych bywa różnie. Image „Aby chronić się przed tym ryzykiem [dezinformacji], YouTube i wyszukiwarka są zaopatrzone w zautomatyzowane systemy zaprojektowane do promowania wiarygodnych treści” – tak pisze w raporcie Google, właściciel YouTube’a. Niestety, ten sam algorytm w języku polskim potrafi łączyć wątki, których autor filmu samodzielnie nie łączył. Po wpisaniu w wyszukiwarkę (konto otworzone w trybie incognito) hasła „nowotwor odżywanie” dostaniemy short dietetyka Michała Wrzoska o diecie ketogenicznej. W wideo nie pada informacja o tym, że taki styl odżywiania się jest skuteczny w leczeniu nowotworów.Sama platforma też zresztą dostrzega, że używanie aktualnego systemu rekomendacji to nie jest prosta walka:„Gdy dochodzi do ważnych zdarzeń, rzetelne źródła informacji potrzebują czasu na sprawdzenie faktów, dlatego wyprzedzają je spekulacje i dezinformacja. Złe podmioty mogą publikować treści na bazie niezweryfikowanych informacji, żeby wprowadzać w błąd lub przyciągnąć uwagę i zwiększyć ruch. Aby chronić się przed tym ryzykiem, YouTube i wyszukiwarka są zaopatrzone w zautomatyzowane systemy zaprojektowane do promowania wiarygodnych treści”.Fragment raportu z oceny ryzyka firmy GoogleJak działa „automatyczny system promowania wiarygodnych treści?” Nie mamy pojęcia. Google nie pokazuje żadnych danych, nie pisze o szczegółach. Nie wiemy też, jak platforma decyduje o tym, czym są „wiarygodne treści” i „sprawdzone źródła“, których widoczność – jak wielokrotnie deklaruje w raporcie – wzrasta w wynikach wyszukiwania i w rekomendowanych do obejrzenia filmach. Image Po wpisaniu w wyszukiwarkę YouTube’a hasła „nasa live” na koncie użytkowniczki, która maksymalnie chroniła prywatność, spotkanie astronautów z kosmitami pojawiło się jako 2 wynik.System rekomendacyjny, który bawi i zbawiNadawanie priorytetów w wynikach wyszukiwania nie zmienia faktu, że na YouTubie szybko znajdziesz filmiki „specjalistów” od biologii ewolucyjnej, którzy interpretują każde badanie na opak. Dzieci, które tylko klikają w kolejny filmik, po kreskówce o pieskach ratujących świat dostają pełne przemocy przeróbki. Po co to wszystko? Jak zawsze – dla pieniędzy. Twórcy zarabiają miliony monet na niekończących się streamach live (pato- czy nie) czy na relacjach live z fałszywego ratowania zwierząt. Image „Nasze algorytmy sortują setki miliardów treści, aby znaleźć najbardziej trafne i przydatne wyniki. Algorytmy pozwalają nam podnosić jakość i trafność, jednocześnie zmniejszając ryzyko systemowe dla użytkowników/-czek i społeczeństwa” – tak pisze o platformie Google. Kiedy wpisaliśmy hasło „leczenie raka” pierwszym filmikiem był ten o leczeniu raka likopenem (obecnie stosowanym jako barwnik spożywczy). W opisie link do strony Adwentystów Dnia Siódmego.Google pisze w raporcie, że „źle zaprojektowane” lub „słabo kontrolowane” systemy rekomendacyjne mogą zwiększać widoczność szkodliwych treści – ale wyraźnie odcina się od tego problemu, tak jakby jego algorytmy były idealne:„Nasze algorytmy sortują setki miliardów treści, aby znaleźć najbardziej trafne i przydatne wyniki. Algorytmy pozwalają nam podnosić jakość i trafność, jednocześnie zmniejszając ryzyko systemowe dla użytkowników/-czek i społeczeństwa. (…) Źle zaprojektowane lub kontrolowane systemy rekomendacyjne mogą zwiększać ryzyko, że szkodliwe treści uzyskają popularność. Prawidłowo działające systemy rekomendacyjne powinny jednak zmniejszać to ryzyko poprzez zwiększanie widoczności treści rzetelnych i jakościowych oraz poprzez promowanie różnorodnej tematyki i zdywersyfikowanych źródeł, z którymi użytkownicy i użytkowniczki mogą się zapoznać. (…) [N]iektóre rodzaje ryzyka są łagodzone poprzez zapobieganie, usuwanie lub zwiększanie widoczności niektórych rodzajów treści (tj. moderację treści), a inne są łagodzone poprzez zmiany w projektowaniu lub funkcjonowania usługi lub sposobu interakcji użytkowników i użytkowniczek z usługą (tj. projektowanie usług)”. Fragment raportu z oceny ryzyka firmy Google, podkreślenia naszeRozumiemy, że w morzu treści jest też masa tych wartościowych treści, czy to rozrywkowych, politycznych, edukacyjnych, czy to sportowych. Ale jeśli chodzi o serwowanie treści dzieciom, to najlepiej docierać do nich przez bezpośredni link albo śledzenie konkretnego kanału. Wyszukiwanie lub korzystanie z rekomendacji może skończyć się rozczarowaniem (lub traumą, jeśli dziecko trafi na przemoc, ale o dzieciach za chwilę).Parafrazując raport: sortowanie treści jest dobre i proszę nie narzekać. O tym, jak działa algorytm YouTube’a, krążą legendy. Twórcy cenzurują kontrowersyjne słowa, takie jak „seks”. Bronią przeciwko mówieniu o seksie jest odcięcie od zarabiania – jest wiele przykładów na to, że YouTube demonetyzuje filmy (czyli wyłącza możliwość zarabiania na nich). Z ocen ryzyka nie dowiemy się też nic o tym, jak komentarze, łapki w górę i subskrypcje wpływają na rekomendacje. Dla porównania: w raporcie dotyczącym Facebooka Meta pisze, że ograniczyła wpływ tych sygnałów na rekomendacje.Co YouTube robi dla promowania rzetelnych treściZostańmy przy rekomendacjach. To jest fragment, który powinien przeczytać każdy youtuber. W raporcie Google pisze, że systemy:„wykorzystują sygnały takie jak znaczenie, trafność, jakość, użyteczność i kontekst, aby wyżej wyświetlić wyniki, które wydają się najbardziej pomocne, w szczególności treści, które wydają się bazować na specjalistycznej wiedzy, doświadczeniu, autorytatywności i wiarygodności. Sygnały te są szczególnie ważne w przypadku tematów »Twoje pieniądze lub Twoje życie« (YMYL), zdefiniowanych jako te, które »mogą znacząco wpływać na zdrowie, stabilność finansową lub bezpieczeństwo poszczególnych osób lub dobrostan społeczeństwa«”.I dalej:„Jakościowe informacje z wiarygodnych źródeł wyświetlamy wyżej w wynikach wyszukiwania, rekomendacjach i panelach informacyjnych, pomagając w ten sposób ludziom znaleźć dokładne i przydatne informacje (…). W przypadku zapytań w serwisie YouTube dotyczących tematów podatnych na dezinformację, takich jak COVID-19 czy zmiany klimatyczne, wyświetlamy panele informacyjne, które dostarczają treści pochodzące z niezależnych serwisów. Te panele zapewniają użytkownikom i użytkowniczkom dodatkowy kontekst i pomagają im podejmować bardziej świadome decyzje dotyczące tego, co oglądają”.W 16 państwach Unii Europejskiej (w tym w Polsce) YouTube wprowadził „Breaking News Shelf” – zakładkę na stronie głównej, w której promuje rzetelne źródła gorących dla danego kraju tematów, czyli szczególnie ważnych wydarzeń. Kiedy takie „gorące” wydarzenia mają miejsce, system rekomendacyjny podobno podbija wiarygodne źródła. Image „YouTube deklaruje, że zmienił podejście do treści związanych z zaburzeniami odżywiania”. Mamy poczucie, że nie dotyczy to męskich zaburzeń postrzegania ciała. Po wpisaniu frazy „testosteron” na koncie incognito YouTube poleci nam takie shorty.YouTube deklaruje, że zmienił podejście do treści związanych z zaburzeniami odżywiania. Konkretnie: zakazuje publikowania treści przedstawiających „możliwe do naśladowania” zachowania dotyczące zaburzeń odżywiania, na niektóre filmy nakłada ograniczenia wiekowe, a przy filmach o takiej tematyce wyświetla komunikaty odsyłające do rzetelnych publikacji o zaburzeniach odżywiania.Szkodliwe i radykalne treści na twoim feedziePlatforma deklaruje, że ogranicza zasięgi szkodliwych treści. Nie wiemy jednak ani jakimi środkami na to pracuje (choćby TikTok deklaruje wprowadzenie manualnej kontroli trendujących treści), ani jakie efekty osiąga.A co sami użytkownicy i użytkownicy mogą zrobić, żeby na ich feedach zagościła jakość i rzetelność? Image W 2020 r. powstało badanie analizujące ścieżki radykalizacji użytkowników na YouTubie. Analizy wskazały m.in. na brak moderowania skrajnych oraz dezinformacyjnych komentarzy. Cztery lata później Google w raporcie zwraca uwagę na to, że użytkownicy powinni mieć możliwość dotarcia do wiarygodnych źródeł informacji. Niestety, nie widzimy poprawy, jeśli chodzi o komentarze. Wyżej przykłady kilku z nich pod filmikiem TVP o wprowadzeniu możliwości szczepienia na HPV w szkołach.YouTube zapewnia, że „poza zwiększaniem widoczności jakościowych informacji i zwalczaniem dezinformacji udostępnia narzędzia przydatne w ewaluowaniu informacji”. Może chodzić o komunikaty pojawiające się przy tematach podatnych na dezinformację (np. o pandemii koronawirusa), odsyłające po więcej informacji do bardziej zaufanych źródeł niż filmik (czyli do „stron rządowych, Wikipedii, encyklopedii Britannica i ONZ”). W listopadzie 2022 r. YouTube uruchomił kampanię edukacyjną „Hit Pause” (Wciśnij pauzę), która ma skłaniać do zastanowienia się, czy dana treść jest wiarygodna. Rozwiązania, jakich oczekujemy od wielkich platform, na rzecz przeciwdziałania promocji szkodliwych treści:dodatkowy krok wymuszający refleksję przed podaniem dalej („pomyśl, zanim podasz dalej”) dla wszystkich treści;zachęty do ocenienia wiarygodności treści przed podaniem jej dalej;ustalenie limitu możliwości podania dalej tej samej treści, żeby spowolnić tzw. virale; po osiągnięciu limitu dalsze rozpowszechnianie treści wymagałoby stworzenia nowego postu;zachęty dla użytkowników i użytkowniczek do skorzystania z wyszukiwarki treści po przekroczeniu ustalonego (przez platformę) limitu interakcji z treściami rekomendowanymi („Czy na pewno chcesz dalej to oglądać?”), ew. blokowanie rekomendowanego feedu w ramach danej sesji („Zobaczyłeś/-aś już wszystkie rekomendowane treści dla twojego zapytania. Jeśli chcesz zobaczyć nowe rekomendacje, wpisz nowe zapytanie”);promowanie treści pochodzących ze sprawdzonych (wiarygodnych) źródeł w odpowiedzi na wszystkie zapytania użytkowników i użytkowniczek dotyczące zdrowia, finansów, bezpieczeństwa i tematów politycznych.Czy Google w ogóle chroni dzieci przed działaniem platformy?YouTube wprowadził ograniczenia w dostępie do treści, które nie naruszają regulaminu, ale są nieodpowiednie dla osób poniżej 18 roku życia. Jakie to treści? Filmy pokazujące dorosłych uczestniczących w niebezpiecznych czynnościach, które dzieci mogą chcieć naśladować. Pokazujące substancje zakazane dla dzieci lub zwyczajnie trujące. Treści o charakterze seksualnym lub zawierające przemoc i wulgaryzmy. Filmy z ograniczeniami wiekowymi nie są dostępne dla niezalogowanych użytkowników i użytkowniczek.Algorytmy YouTube’a analizują sygnały, które mogą świadczyć o tym, że właścicielem kanału jest osoba poniżej 13 roku życia. W przypadku takiego podejrzenia zawartość kanału jest oceniana przez wyspecjalizowany zespół. W stosunku do użytkowników i użytkowniczek zaklasyfikowanych jako „potencjalny małoletni” YouTube uruchamia wymuszony proces odzyskiwania konta. Taki użytkownik ma dwa tygodnie na udowodnienie, że ukończył 13 lat, lub na uzyskanie zgody rodziców i konfigurację kontroli rodzicielskiej.Google twierdzi, że niektóre filmy na YouTubie przedstawiające małoletnich mają wyłączoną możliwość komentowania. Niestety nie pisze, jakie kryteria o tym decydują. Image YouTube w ramach ochrony dzieci wyłącza komentarze pod filmikami. Pod meczami np. piłki nożnej z udziałem dzieci nie ma takiej ochrony. I zawodnikom się dostaje. To komentarze z filmiku pucharu Tymbarka dziewczyn Finał U-12 dziewczynek - XIX edycja Turnieju "Z Podwórka na Stadion o Puchar Tymbarku"w kategorii wiekowej do 12 roku życia – łącznie 134 komentarzy. Dlaczego młode piłkarki (i piłkarze!) nie zasługują na brak komentarzy? Kryterium wyłączania ich jest niejasne.W raporcie jest mowa o ryzyku stymulowania uzależnień behawioralnych u dzieci – ale brak informacji, niestety, jakie funkcjonalności są traktowane jako te, które mogą to uzależnienie stymulować. Natomiast to, co mówi firma, jest chyba nawet ciekawsze: YouTube podważa badania pokazujące wpływ funkcjonalności platform internetowych na rozwój uzależnień cyfrowych (zdaniem korporacji wyniki badań są w tym zakresie „nierozstrzygające”, więc bez przesady…).Ale mimo tych nierozstrzygających niczego badań YouTube zdecydował się zrezygnować z jednej z najgorszych (zdaniem badaczy) funkcji, czyli autoodtwarzania. Możecie się zdziwić, jeśli spojrzeliście w aplikację i zobaczyliście, że wy macie tę funkcję domyślnie włączoną. Chodziło jedynie o konta, których użytkownicy zadeklarowali, że nie mają 18 lat, o konta nadzorowane i o konta w aplikacji YouTube Kids (rodzic ma też możliwość całkowitego zdezaktywowania autoodtwarzania, w takim wypadku dziecko nie może samodzielnie włączyć tej opcji). Dorosłym polecamy od razu to wyłączyć. Image „YouTube dostosowuje też przypomnienia o przerwie (Take a Break) i nocnym odpoczynku (Bedtime) do różnych grup wiekowych”. Źródło: video Max DaltonYouTube dostosowuje też przypomnienia o przerwie (Take a Break) i nocnym odpoczynku (Bedtime) do różnych grup wiekowych. W ustawieniach rodzicielskich umożliwia określenie limitu czasu, jaki dziecko może spędzić w aplikacji YouTube Kids.Firma deklaruje też, że stara się identyfikować treści odpowiednie do wieku, zgodnie z jej wartościami, i różnorodne, żeby spełniać różne oczekiwania dzieci na całym świecie. Z jakim skutkiem? Tego nie pisze.Oczekujemy dalej idących środków przeciwdziałających uzależnieniom od social mediów:rezygnacji z funkcji, które niezależni badacze klasyfikują jako „uzależniające”, w szczególności: automatycznych powiadomień, niekończącego się feedu, funkcji autoodtwarzania oraz liczników sygnałów społecznej walidacji (takich jak lajki) dla wszystkich kont, bez względu na wiek;ostrzeżeń, że użytkownik/-czka spędził już 30 minut w danym serwisie;zachęt do ustawienia własnych limitów korzystania z aplikacji;zachęt do ograniczenia powiadomień do niezbędnych i wybrania „higienicznego” sposobu ich dostarczania (np. powiadomienia o nowych wiadomościach lub komentarzach przychodzą w paczkach po upływie określonego czasu lub w czasie wskazanym przez użytkownika/-czkę);zachęt do ustawienia dnia bez social mediów;automatycznego blokowania aplikacji po upływie ustawionego czasu lub w czasie zdefiniowanym przez użytkownika/-czkę jako czas offline;spowalniania tempa, w jakim można przewijać feed, proporcjonalnie do czasu spędzonego na platformie (tak by nie nagradzać nadmiernego korzystania z platformy);prowadzenia na platformie/ w aplikacji kampanii uświadamiających ryzyka związane z nadmiernym korzystaniem z social mediów.Nieprofilowany feed jako alternatywa, ale nie na YouTubieAkt o usługach cyfrowych (DSA), dzięki któremu w ogóle czytamy ten dokument (chyba nikt nie pomyślał, że korporacje raportują z własnej woli), wymaga od wielkich platform internetowych opracowania możliwości przełączenia się na nieprofilowany feed. To taki strumień treści, który nie jest skonstruowany na bazie danych o użytkownikach, a w szczególności nie na danych wywnioskowanych na podstawie zachowania w sieci.Co to są dane wywnioskowane?Platformy podsuwają użytkownikom spersonalizowane treści na podstawie analizy ich danych. Jednak nie tylko takich, którymi użytkownicy i użytkowniczki świadomie się z nimi dzielą (np. uzupełniając informacje w swoim profilu czy pisząc określone posty), ale także danych wywnioskowanych z analizy zachowania w sieci i „mikrośladów”, które zostawiamy za sobą w każdej sekundzie aktywności w Internecie (np. gdy w coś klikamy, coś lajkujemy, wyszukujemy określone informacje, zawieszamy dłużej wzrok na określonej treści, spędzamy na danej platformie pewną ilość czasu w określonych porach). Cybergiganci systematycznie zbierają te „okruchy” informacji, a dzięki algorytmom są w stanie na ich bazie wyciągnąć dość szczegółowe wnioski na temat tego, kim jesteśmy, jakie mamy upodobania i cechy (w tym czasem także te wrażliwe, których sami nigdy świadomie byśmy im nie ujawnili).Na YouTubie dojście do alternatywnego feedu to nie jest prosta droga – nie da się tego zrobić jednym kliknięciem. Trzeba najpierw w ustawieniach zatrzymać historię oglądania i wyczyścić ją. Potem na YouTubie dostaniemy tylko ekran z oknem wyszukiwarki (bez żadnych rekomendacji). Żeby zobaczyć nieprofilowane rekomendacje, można wejść w kanał „Na czasie”, „Sport” czy „Wiadomości”. Tak nieintuicyjny dostęp budzi nasze podejrzenia. Czy to na pewno jest zgodne z DSA? Image Jak wygląda brak personalizacji na YouTubie? Algorytm jest tak świetny, że firma postanowiła postawić wszystko na jedną kartę. Zachęcające, prawda?Nie oczekujemy, że wielkie platformy zaczną serwować nieprofilowany (układany chronologicznie albo według aktualnych trendów) feed w opcji domyślnej. Oczekujemy natomiast, że w opcji domyślnej wielkie platformy zrezygnują z wykorzystywania danych behawioralnych do personalizowania rekomendacji, czyli będą korzystały jedynie z danych świadomie przekazywanych przez użytkowników i użytkowniczki. „Świadomie” oznacza też to, że przekazujący dane rozumie cel przetwarzania informacji.Poza możliwością zatrzymania/skasowania historii Google nie pisze o innych narzędziach, które pozwalałyby użytkownikom YouTube’a zachować kontrolę nad zawartością feedu. To ciekawe, bo w takim wypadku wypada gorzej od np. TikToka, który oferuje (a w każdym razie deklaruje, że oferuje) więcej możliwości, np. opcję odfiltrowania określonych hasztagów czy reset feedu.YouTube nie powiedział, jak projektuje algorytmy rekomendacyjne. Będzie się musiał z tego tłumaczyćBadacze, organizacje społeczne, ludzie, urzędnicy – wszyscy dostrzegają problemy związane z platformami internetowymi – a zwłaszcza ich systemami rekomendacyjnymi. 2 października 2024 r. Komisja Europejska wezwała YouTube’a, Snapchata i TikToka do złożenia wyjaśnień dotyczących sposobu zaprojektowania i funkcjonowania ich systemów rekomendacyjnych.Komisja domaga się informacji o parametrach, według których algorytmy platform „rekomendują użytkownikom treści, a także [informacji na temat tego], jaka jest ich rola w zwiększaniu systemowych ryzyk, m.in. związanych z procesami wyborczymi i dyskursem obywatelskim, zdrowiem psychicznym użytkowników (w tym zachowań prowadzących do uzależnienia i efektu króliczych nor) czy ochroną małoletnich”. Komisja chce też dowiedzieć się, w jaki sposób platformy tym ryzykom przeciwdziałają.Platformy wytłumaczą algorytmy albo będą miały na karku śledztwoNie dziwi nas to, że Komisja żąda od Google’a dodatkowych informacji. Najwyraźniej sama deklaracja w raporcie z oceny ryzyka, że YouTube promuje widoczność „wysokiej jakości treści” i „wiarygodne źródła”, nawet powtarzana wiele razy, ale bez żadnych dowodów, nie przekonała urzędników, że platforma na pewno opracowała systemy tak, że mucha nie siada i że nie generują one żadnych ryzyk.Kogo zresztą przekonała?To nasz trzeci przeczytany raport, dlatego widzimy już wzorce. Platformy wydają się bagatelizować działanie algorytmów, nie tłumaczą ich działania. Za to chętnie skupiają się na tym, jak dużo wysiłku kosztuje je moderowanie treści publikowanych przez użytkowników i użytkowniczki o złych intencjach. Firmy przedstawiają osoby korzystające z usługi jako główny problem działania samej usługi. To tak, jakby sklep z butami nie chciał opowiedzieć o materiale, z którego buty są uszyte, bo „i tak przychodzą do nas ludzie z haluksami, więc to nie w materiale jest problem”.Jeśli platformy nie dostarczą Komisji odpowiedzi na pytania o systemy rekomendacyjne, ta będzie mogła wszcząć formalne śledztwo (na podstawie art. 66 DSA), w wyniku którego na platformy mogą zostać nałożone kary za złożenie nieprawdziwych, niepełnych lub wprowadzających błąd informacji (na podstawie art. 74(2) DSA). Anna Obem Autorka Dominika Chachuła, Dorota Głowacka, Katarzyna SzymielewiczWspółpraca Linki i dokumenty Google - analiza systemowych ryzyk (2023)3.87 MBpdf Temat Odpowiedzialność pośredników za treści w Internecie media społecznościowe prawo Poprzedni Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Która partia ma Cię na celowniku? Zainstaluj wtyczkę! Jak politycy mogą manipulować w sieci, żeby zdobyć Twój głos w wyborach? Jednym ze sposobów może być rozpowszechnianie tzw. targetowanych reklam politycznych w mediach społecznościowych. W Polsce wciąż mało wiemy o tym zjawisku. Dzięki wtyczce Who Targets Me dowiesz się, która partia próbuje… 14.05.2019 Tekst Artykuł Bez pozasądowych organów nie wygramy z „prywatną cenzurą” w mediach społecznościowych W połowie marca Ministerstwo Cyfryzacji przedstawiło projekt ustawy wdrażającej akt o usługach cyfrowych (AUC) w Polsce. Brakuje w nim jednak rozwiązań dotyczących „pozasądowych organów rozstrzygania sporów”. Bez nich w praktyce trudno będzie osiągnąć jeden z celów nowej regulacji, tj. 16.04.2024 Tekst Artykuł Ostatnia rozprawa przeciwko Facebookowi. Wyrok za miesiąc Ostatni świadek, mowy końcowe, a na wyrok poczekamy do 13 marca. Podsumowujemy ostatnią rozprawę SIN vs Facebook o cenzurę na portalach Marka Zuckerberga. Sprawa toczy się od 2019 r.Wolność się liczyDołóż swoje 1,5%KRS: 0000327613 13.02.2024 Tekst