Artykuł 10.01.2025 16 min. czytania Tekst Image Tytuł TikTok ukrywa grzeszki. Nie jest to pełny rachunek sumienia Treści produkujecie WY. Co złego, to nie big tech Treści nieodpowiednich na TikToku jest wiele – tylko co z tego? Ochrona dzieci. Na papierze TikTok wygląda świetnie Kontrola twojego feedu Czy TikTok nie wie, że uzależnia, czy tylko udaje? Czy na TikToku jest polityka i dezinformacja? Podobno nie Jakub Olek w podcaście Panoptykonu: TikTok chce być platformą wolną od polityki Walka z alternatywną medycyną w social mediach Deepfake z Trumpem nie musi być oznaczony Podsumowanie – firma chce rozmawiać o ochronie dzieci, bo to jej pasuje Tytuł TikTok ukrywa grzeszki. Nie jest to pełny rachunek sumienia Treści produkujecie WY. Co złego, to nie big tech Treści nieodpowiednich na TikToku jest wiele – tylko co z tego? Ochrona dzieci. Na papierze TikTok wygląda świetnie Kontrola twojego feedu Czy TikTok nie wie, że uzależnia, czy tylko udaje? Czy na TikToku jest polityka i dezinformacja? Podobno nie Jakub Olek w podcaście Panoptykonu: TikTok chce być platformą wolną od polityki Walka z alternatywną medycyną w social mediach Deepfake z Trumpem nie musi być oznaczony Podsumowanie – firma chce rozmawiać o ochronie dzieci, bo to jej pasuje Czym jest TikTok? Dla jednych to platforma kreatywna, dla innych – uzależniająca profilująca aplikacja do szpiegowania i robienia Europejkom i Europejczykom wody z mózgu. A jakie zagrożenia związane z funkcjonowaniem platformy widzą jej właściciele? I co robią, żeby je ograniczać? Analizujemy sprawozdanie TikToka z oceny systemowych ryzyk*.Czytamy raporty platform, żebyście wy nie musieliWspieraj PanoptykonTikTok ukrywa grzeszki. Nie jest to pełny rachunek sumieniaRaport TikToka, podobnie jak analizowane przez nas wcześniej sprawozdanie Facebooka, koncentruje się na zagrożeniach, których źródłem są sami użytkownicy i publikowane przez nich treści. Opisuje systemy moderacyjne i narzędzia zgłaszania treści oraz te umożliwiające (w ograniczonym stopniu, ale jednak) kontrolowanie zawartości feedu. TikTok bardzo dużo miejsca poświęca (a jakże!) ochronie małoletnich.W żadnym miejscu nie odnosi się jednak do zarzutu powtarzanego przez organizacje i niezależnych badaczy, którzy wielokrotnie podnosili kwestię modelu biznesowego platformy. Model ten żeruje na uwadze i eksploatuje słabości (nie tylko małoletnich) użytkowników. W skrócie: platformie opłaca się przykuć użytkownika do aplikacji, nawet jeśli serwuje mu głównie drenaż mózgu. W raporcie nie przeczytamy wiele o uzależniających funkcjach platformy ani o ich wpływie na dobrostan użytkowników.Obowiązkowe oceny ryzyka – po co i dlaczego?W listopadzie 2024 r. wielkie platformy internetowe (Very Large Online Platforms, VLOP-y) opublikowały długo oczekiwane raporty z wyników oceny ryzyka. Dowiadujemy się z nich, jak same firmy oceniają wpływ „sposobu projektowania lub funkcjonowania” ich usług (w tym systemów algorytmicznych) na m.in. prawa podstawowe ludzi, fizyczny i psychiczny dobrostan, ochronę zdrowia publicznego i małoletnich oraz dyskurs obywatelski i procesy wyborcze.Konieczność przeprowadzania (cyklicznie!) ocen ryzyka wynika z aktu o usługach cyfrowych (Digital Services Act, DSA), który w stosunku do VLOP-ów obowiązuje od sierpnia 2023 r. Jest to jeden z sukcesów rzeczniczych organizacji walczących o prawa cyfrowe (w tym Panoptykonu), bo daje nam wgląd w działalność platform, a tym samym pozwala minimalizować ich szkodliwy wpływ na zdrowie ludzi czy funkcjonowanie całych społeczeństw.Treści produkujecie WY. Co złego, to nie big techDla TikToka największym problemem są użytkownicy – przynajmniej taki wniosek można wyciągnąć z lektury raportu. To przecież oni publikują różnego rodzaju sprzeczne z prawem lub regulaminem treści, które platforma musi moderować. I robi to swoim zdaniem świetnie (prawie 99% treści stanowiących zagrożenie dla małoletnich użytkowników znika, zanim ktokolwiek je obejrzy).Oczywiście, zdarza się, że – zanim taka treść zniknie z platformy – algorytm rekomendujący zwiększy jej zasięg (TikTok zarzeka się, że mało prawdopodobne jest, żeby np. treści o charakterze terrorystycznym czy materiały przedstawiające seksualne wykorzystywanie dzieci zyskały duże zasięgi).Na szczęście na straży stoi TikTok. Autorzy raportu serwują nam opowieść o dobrej platformie, która walczy ze złymi ludźmi i zamieszczanymi przez nich treściami. Jak?Przede wszystkim stara się blokować niewłaściwe treści. A jeśli mimo to przejdą one przez sito moderacji, platforma stara się ograniczyć ich widoczność („trendowanie”), np. blokując wyszukiwanie niektórych słów kluczowych. Z kolei materiały, które przekroczyły określony poziom popularności (liczbę wyświetleń), są jeszcze dodatkowo weryfikowane przez człowieka pod kątem zgodności z regulaminem.Jasne, rozumiemy, że platforma bardzo się stara. Czy jednak 164 polskojęzycznych moderatorów może skutecznie sprawdzać trendujące polskojęzyczne materiały (źródło)? I jaki odsetek kontrowersyjnych wpisów po polsku w ogóle jest do nich kierowany, skoro do zmylenia algorytmu wystarczy dorzucenie do wulgarnego wpisu fragmentu tekstu po amharsku.Treści nieodpowiednich na TikToku jest wiele – tylko co z tego?TikTok deklaruje także, że priorytetem, jeśli chodzi o działanie systemów rekomendacyjnych, jest bezpieczeństwo. Dlatego firma pisze o treściach uznawanych za „nieodpowiednie dla szerokiej publiczności”, np. promujących zaburzenia odżywiania, zawierających nagość, materiałach, których prawdziwości nie jest w stanie zweryfikować, zachęcających do niebezpiecznych zachowań czy publikowanych przez użytkowników poniżej 16 roku życia [źródło]. Image Treści, których prawdziwości nie można zweryfikować, mogłyby być odpowiednio etykietowane. Te o płaskiej ziemi nie są, a powtarzająca się liczba treści sprawia, że użytkownik nie jest w stanie zrozumieć, czy znajduje się na satyrycznej stronie czy obserwuje dezinformację (źródło screena: Panoptykon).Te treści nie są rekomendowane w ramach kanału „Dla Ciebie” (FYF). Zdeterminowani użytkownicy (powyżej 18 roku życia) będą w stanie je wyszukać na platformie, dla młodszych w ogóle nie powinny być dostępne. TikTok deklaruje, że oznacza i maskuje niektóre filmy, dając użytkownikom możliwość decyzji, czy chcą je obejrzeć – zanim się wyświetlą.Ochrona dzieci. Na papierze TikTok wygląda świetnieWróćmy do ryzyk związanych z korzystaniem z platformy przez osoby małoletnie. TikTok dzieli swoje działania w tym obszarze na kilka kategorii:zwalczanie treści wykorzystujących seksualnie dzieci (CSAM);zapobieganie wyświetlania dzieciom treści nieodpowiednich do wieku (Mis-stated Age Risk – kiedy osoba zadeklaruje, że jest starsza niż w rzeczywistości, Content Risk – kiedy osoba małoletnia obejrzy treści nieodpowiednie dla wieku);narażanie dzieci na różnego rodzaju nieprzyjemne interakcje (Conduct Risk i Contact Risk – gdy osoby angażują się w zachowania nieodpowiednie do wieku lub narażone są na niewłaściwe czy przemocowe komentarze).Z raportu TikToka wynika, że przynajmniej moderacja treści niezgodnych z regulaminem jest wysoce efektywna. W pierwszym kwartale 2023 r. TikTok wykrył i usunął 28 503 537 filmów stanowiących zagrożenie dla nieletnich, z czego:98,9% materiałów zostało wykrytych i usuniętych, zanim zostały zgłoszone;88% zostało usuniętych, zanim zostały przez kogokolwiek obejrzane;91,2% zostało usuniętych w ciągu 24 godzin od opublikowania.Skoro jest tak dobrze, to dlaczego jest tak źle? Jak wyjaśnić powracające afery wokół niebezpiecznych trendów z TikToka (halloweenowe cukierki nadziewane trutką, samookaleczenia, wpisz własne)? Image Zdjęcie to fragment reportażu wideo w Dzień Dobry TVN. W listopadzie pisał o tym Spider's Web: „podczas gdy organy ścigania spekulują, że mogły być to skoordynowane działania, wyszło na jaw, że ludzie już od września prześcigali się w pomysłach na to, jak zatruć łakocie. I co najlepsze – dzięki TikTokowi dokładnie wiemy, kto propagował ten koszmarny trend".TikTok podobno nie zamyka oczu. W 2021 r. zlecił specjalne badanie, w ramach którego rozmawiał z nastolatkami, rodzicami i edukatorami z 10 różnych krajów, zaangażował ekspertów od bezpieczeństwa młodzieży, psychiatrów i behawiorystów.Powstał raport pt. Exploring effective prevention education responses to dangerous online challenges, TikTok zaś wprowadził zmiany w moderacji, wyprodukował filmy edukacyjne dotyczące internetowych wyzwań (i zaczął wykorzystywać algorytm, który miał ograniczyć ich widoczność na kontach osób poniżej 18 roku życia), a także poprawił oznaczenie treści dotyczących szkodliwych wyzwań.Jak działają takie ograniczenia? Zachęcamy do przesyłania nam przykładów (nie jesteśmy w stanie tego zweryfikować, jesteśmy zbyt wiekowi). Image Platforma po wyszukaniu szkodliwego tematu przekierowuje też do materiałów wspierających zdrowie psychiczne młodych ludzi (doceniamy próbę lokalizacji i tłumaczenia materiałów).Umożliwia także połączenie konta dziecka z kontem rodzica (Family Pairing) i przełączenie aplikacji w tryb ograniczony (Restricted Mode). Na koncie dzieci domyślnie ogranicza czas ekranowy do 60 minut dziennie. Kontrolki dotyczące czasu są dostępne w panelu rodzica. A co z ochroną, kiedy już młody człowiek wyrwie się spod skrzydeł opiekunów? O tym dalej.Kontrola twojego feeduUżytkownicy TikToka, bez względu na wiek, do pewnego stopnia mogą kontrolować zawartość swojego feedu. Służą temu:możliwość sprawdzenia, dlaczego TikTok pokazał użytkownikowi określony film;możliwość zablokowania wyświetlania filmów według określonych słów kluczowych w feedzie;możliwość zresetowania historii feedu, żeby móc korzystać z aplikacji „z czystą kartą”, bez obciążającego profilu;przycisk „nie interesuje mnie”, który powinien spowodować, że podobne treści będą rzadziej pojawiały się w feedzie. Image Tak wygląda wyjaśnienie, dlaczego dostajesz w feedzie konkretny filmik. Wydaje nam się, że nie ma tutaj słowa o przypisanych zainteresowaniach i realnym wyjaśnieniu hiperpersonalizacji. Screen: Panoptykon.Na papierze wygląda to całkiem dobrze. Z raportu nie dowiemy się jednak, jak często (na jaką skalę) użytkownicy platformy korzystają z tych narzędzi ani czy są one skuteczne. Ci, którzy liczyli na to, że platforma pokaże w raporcie dane, które rzucą trochę światła na funkcjonowanie algorytmów TikToka, byli naiwni. My też byliśmy, my też.Wyjątkowo ciekawe wydaje się funkcjonowanie przycisku „nie interesuje mnie”. Działanie podobnego przycisku na Facebooku przetestowaliśmy dokładnie w analizie Algorytmy traumy (wynik analizy: niechcianych postów nie pojawiało się mniej). Może czas na TikToka? Tym bardziej, że badanie ankietowe przeprowadzone wśród użytkowników platformy sugeruje, że korzystanie z przycisku „nie interesuje mnie” nie wpłynęło istotnie na zawartość feedów. Image „Pod lupą Komisji znajdują się też szkodliwe skutki hiperpersonalizacji na TikToku (kiedy platforma – na bazie np. zachowania użytkowników – podsuwa im treści wzbudzające silne emocje i zaangażowanie) czy wpychanie ludzi w tzw. królicze nory (kiedy feed zostaje zdominowany przez treści o określonej, silnie angażującej, tematyce)”. Zdjęcie: Witolda Klein | Unsplash.W raporcie zabrakło miejsca na opisanie nieprofilowanego feedu – nie dowiemy się, jak działa tiktokowa „trendująca alternatywa”. Ale na pewno będzie ona świetnym zagraniem, żeby pokazać, jak błyskotliwie TikTok realizuje wymogi DSA i postulaty krytyków hiperpersonalizacji.Czy TikTok nie wie, że uzależnia, czy tylko udaje?Uzależniające funkcje TikToka są obecnie przedmiotem śledztwa Komisji Europejskiej prowadzonego na gruncie DSA. Działania Komisji doprowadziły do wycofania się przez firmę z wprowadzenia na europejski rynek usługi TikTok Lite, która – wykorzystując mechanizmy gamifikacji i gratyfikacje za czas spędzony w aplikacji, zostawianie lajków czy komentarzy – mogła wzmacniać uzależnienie od niej.Pod lupą Komisji znajdują się też szkodliwe skutki hiperpersonalizacji na TikToku (kiedy platforma – na bazie np. zachowania użytkowników – podsuwa im treści wzbudzające silne emocje i zaangażowanie) czy wpychanie ludzi w tzw. królicze nory (kiedy feed zostaje zdominowany przez treści o określonej, silnie angażującej, tematyce).Często mówimy o patologii modelu biznesowego opartego na zaangażowaniu. Nie bez przyczyny. Nawet jeśli treści podsuwane przez platformę nie są szkodliwe, stają się problematyczne, gdy wyświetlają się nagminnie osobom z określonymi słabościami czy wrażliwymi cechami. Osoba, której bliski choruje, może być przez platformę opisana jako „użytkownik szczególnie zainteresowany tematyką zdrowia”. W efekcie nie będzie mogła się opędzić od treści paramedycznych, nowych badań albo poleceń suplementów diety.Sam TikTok twierdzi, że przeciwdziała wyświetlaniu w zbyt dużych ilościach treści o pewnej tematyce (np. dotyczących odchudzania czy ekstremalnej sprawności, nacechowane seksualnie, depresyjne, uproszczone informacje dotyczące zdrowia psychicznego). Raport pobieżnie wspomina o narzędziach „dywersyfikowania wyświetlanych treści”. Co to oznacza?Po filmiku o pożarach w Kalifornii dostaniesz zdjęcia kotków (to nie żart, to przykład z życia).To kolejna rzecz, która na papierze wygląda dobrze, ale po pierwsze: nie ma żadnych danych pokazujących, jak te narzędzia działają; a po drugie: nie rozwiązuje to problemu nadmiaru treści o tematyce, która – dla konkretnej osoby – może być szkodliwa. Image Tematem mediów społecznościowych zajmowaliśmy się także przy okazji kampanii 1,5% (stąd grafika). Polecamy tekst: „15 minut scrollowania wystarczy, żeby zacząć dzień z kciukiem w dół”. Jak social media wpływają na zdrowie psychiczne?TikTok w raporcie nie dostrzega ryzyk związanych z dyskryminacyjną moderacją i dystrybucją treści (kiedy treści o określonej tematyce lub pochodzące od określonej grupy użytkowników są ukrywane przez algorytm). Nie dowiemy się więc, w jaki sposób tym ryzykom przeciwdziała.Czy na TikToku jest polityka i dezinformacja? Podobno nieW raporcie zagrożenia związane z propagowaniem wyborczej dezinformacji zajmują istotne miejsce. W jaki sposób platforma im przeciwdziała?Przede wszystkim polityczne treści, które nie zostały zweryfikowane, flaguje i wyświetla ostrzegawczy baner zachęcający do zapoznania się z faktami (Know the Facts). Niezweryfikowane treści nie są rekomendowane w ramach kanału „Dla Ciebie” (For You Feed, FYF) oraz nakładane są ograniczenia co do możliwości ich wyszukania.Specjalny Zespół ds. Przeciwdziałania Ingerencji w Procesy Wyborcze (Elections Integrity Programme Team) ręcznie weryfikuje treści, które przekroczyły określoną liczbę wyświetleń. Problemem może być to, że nie znaleźliśmy na stronie TikToka informacji o tym, czy zespół posługuje się językiem innym niż angielski (nie wykluczamy tego).Osoby, które chcą udostępnić niezweryfikowane na platformie treści polityczne, podobno dostają zachętę do przemyślenia tej decyzji. TikTok pisze, że blokuje określone wyniki wyszukiwania związane z dezinformacją wyborczą, oznacza konta mediów kontrolowanych przez rządy (ale np. konto TVP nie jest oznaczone w taki sposób), a także wyświetla przekierowanie do zasobów zawierających sprawdzone informacje na temat wyborów (takich jak data czy zasady głosowania).TikTok zabrania też publikowania reklam o tematyce wyborczej, w związku z czym „jest mało prawdopodobne, żeby reklamy na Platformie zawierały dezinformację wyborczą” (to cytat z raportu).Jakub Olek w podcaście Panoptykonu: TikTok chce być platformą wolną od politykiW grudniu 2022 r. w podcaście Panoptykon 4.0 Jakub Olek z TikToka mówił o tym, że platforma chce być wolna od polityki. Coś poszło nie tak: na platformie aktywni są politycy z różnych krajów i opcji (Donalda Trumpa obserwuje 14 mln osób, Donalda Tuska – 0,5 mln osób, a Sławomira Mentznena – 1,2 mln). Video file Posłuchaj całego odcinka.Ale to nie jest takie złe. Mamy przecież świeższy i lepszy przykład wykorzystywanie TikToka w polityce: wybory prezydenckie w Rumunii w 2024 r. wygrał kandydat, którego kampania rozgrywała się – według mediów – głównie na tej platformie (wybory zostały unieważnione, a Komisja Europejska prowadzi śledztwo w sprawie możliwych zaniedbań TikToka w zakresie przeciwdziałania dezinformacji).Walka z alternatywną medycyną w social mediachPamiętacie, jak w 2020 r. na TikToku trendowały filmy dotyczące domowej roboty „lekarstwa” na koronawirusa? Autorzy raportu dostrzegają ryzyko związane z rozpowszechnianiem dezinformacji medycznej na platformie – uważają jednak, że po zakończeniu pandemii koronawirusa jest ono niewielkie. Nie zgadzamy się z tym, że zagrożenia płynące z porad medycznych „na chłopski rozum” są teraz minimalne (co pokazał chociażby dziennikarz TOK FM Michał Janczura w reportażu Podziemie). Image Justin Waller, zajmujący się nieruchomościami, inwestor z Luizjany powie ci prawdę o ADHD.Mimo tego zastrzeżenia TikTok stosuje analogiczne środki zapobiegania dezinformacji medycznej (moderacja, oznaczanie niezweryfikowanych treści, nierekomendowanie ich w kanale „Dla Ciebie”, zachęta do zastanowienia się, czy użytkownik chce takie treści udostępnić). Platforma podpowiada także sprawdzone źródła informacji (np. strony w domenie gov.pl). Tak samo postępuje z każdą inną tematyką, która może wiązać się z dezinformacją: konfliktami zbrojnymi, aktami terroryzmu, katastrofami klimatycznymi, protestami społecznymi etc.Czy to działa? W raporcie zabrakło danych na poparcie tez o skuteczności tych narzędzi (z niecierpliwością na nie czekamy).Deepfake z Trumpem nie musi być oznaczonyW swoim raporcie TikTok dostrzega wyzwanie związane z zalewem treści wygenerowanych z użyciem sztucznej inteligencji. Cieszymy się z dostrzeżenia, chociaż poziom zabezpieczeń nas zdziwił.TikTok wymaga od użytkowniczek i użytkowników wyraźnego oznaczania deepfake’ów, jeśli zawierają wizerunki istniejących osób dorosłych (z wyjątkiem osób publicznych). Zabrania publikowania treści wyglądających realistycznie z wizerunkami istniejących dzieci. Image Najsłynniejszy deepfake: Papież Franciszek w zimowej kurtce.A więc deepfake z Donaldem Trumpem czy Taylor Swift nie musi być oznaczony jako wygenerowany przez AI. Deepfake z Janem Kowalskim – już tak.Spreparowany filmik przedstawiające nie w pełni ubrane koleżanki z klasy (tak się „bawią” dzieci w Hiszpanii) w ogóle nie powinien zostać opublikowany. Dlaczego jednak fani Taylor nie mają wiedzieć, że deepfeke z jej wizerunkiem to deepfake? Na to pytanie nie znamy odpowiedzi (ale podejrzane filmiki można zgłaszać TikTokowi do moderacji).Podsumowanie – firma chce rozmawiać o ochronie dzieci, bo to jej pasujeCzy sam raport rzuca nowe światło na zagrożenia związane ze sposobem projektowania i funkcjonowaniem platformy? Raczej nie.Pokazuje za to, że firma jest gotowa rozmawiać o wyzwaniach związanych z moderacją treści i ochroną dzieci. Nie daje nam jednak poczucia, że TikTok ma wystarczającą determinację, aby wziąć pełną odpowiedzialność także za szkodliwość modelu biznesowego bazującego na śledzeniu, profilowaniu i angażowaniu uwagi użytkowniczek i użytkowników.*Pełna treść raportu TikToka w załączniku pod artykułem. Anna Obem Autorka Dominika Chachuła, Dorota Głowacka, Katarzyna SzymielewiczWspółpraca Linki i dokumenty TikTok: DSA RISK ASSESSMENT REPORT 20235.87 MBpdf Temat media społecznościowe algorytmy Odpowiedzialność pośredników za treści w Internecie Poprzedni Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Czy nowy cyfrowy ład jest możliwy? Wyobraźmy sobie nowy, cyfrowy ład. Taki, w którym ludzie nie są przetwarzani, jak cyfrowa biomasa, ale mają prawo głosu i są w stanie decydować o swoich danych. Dostają usługi, które są dopasowane do ich potrzeb, a jednocześnie bezpieczne. Nie wysyłają ich danych na giełdy reklam, nie śledzą bez… 28.10.2019 Tekst Artykuł Koniec niewinności: USA dyskutują o regulacji platform internetowych Przed komisją ds. służb specjalnych w Senacie USA trwają przesłuchania szefów technologicznych korporacji: Twittera i Facebooka. Pytanie nie brzmi już, czy czeka je regulacyjna zmiana, ale jaka ona będzie. 09.09.2018 Tekst Artykuł Wybory bez dezinformacji – ruszają zapisy na warsztaty dla dziennikarek i dziennikarzy W ostatnich latach w co najmniej 18 krajach dezinformacja mogła mieć negatywny wpływ na demokratyczne procesy wyborcze. Czy problem ten może dotyczyć także zbliżających się wyborów samorządowych w Polsce? Jak do tego nie dopuścić? 20.08.2018 Tekst