Artykuł 17.09.2018 8 min. czytania Tekst Image Platformy internetowe istnieją i zarabiają dzięki naszej pracy, liczonej w gigabajtach danych i godzinach, jakie spędzamy na klikaniu (opublikuj, podaj dalej, oznacz, odpowiedz…). Co minutę zasoby YouTube powiększają się o kilkaset godzin materiału filmowego, strumień tweetów zwiększa się o kilkaset tysięcy, a na Facebooku przybywa nawet 2,5 miliona postów. Jest nas – podpiętych pod sieć 2.0 producentów treści – coraz więcej, a wytwarzanie internetowego kontentu staje się jeszcze szybsze i łatwiejsze. W miejsce tych, którym już się znudziło nadawać, wchodzą młodsi, żeby się przekonać, jak to jest „zaistnieć w Internecie”. Zajęci nadawaniem, możemy nie zauważyć, że między nami a internetową publicznością pojawił się filtr. I to filtr wielowarstwowy. Pierwsza warstwa filtru to algorytm, który ma za zadanie wyłapać, czy w nieustającym strumieniu treści czekających na opublikowanie nie pojawiło się coś, co narusza regulamin platformy. Filtr technologiczny jest w stanie wyłapać to, co pasuje do wzorca, którego nauczyła się sieć neuronowa. Czy coś wygląda jak nagość albo przemoc? Czy coś brzmi lub wygląda jak dzieło chronione prawem autorskim? Zadaniem algorytmu nie jest ocenia takich niuansów, jak intencja publikującego (czy to jeszcze satyra czy już podżeganie do nienawiści?), kontekst (czy to działanie artystyczne albo edukacyjne czy zwykła pornografia?) czy faktyczna zgodność z prawem (może to jednak uprawniona krytyka medialna albo dozwolony użytek?). Druga warstwa filtru to my – inni użytkownicy, którzy zamiast „lubię to” klikają „zgłoś naruszenie”. To, czego nie wyłapał algorytm (bo nie pasowało do wzorca, którego jest się w stanie nauczyć maszyna), wyłapują ludzie. Robią to, z różnych powodów – czasem osobistych, czasem politycznych, a czasem tylko dlatego, że mogą. Facebook, który mierzy się z największą skalą takich zgłoszeń, zapewnia, że nie reaguje automatycznie. Znikać powinno tylko to, co narusza regulamin albo tzw. standardy społeczności, a więc m.in. treści propagujące nienawiść (np. na tle rasowym), zachęcające do przemocy, odczłowieczające, znieważające, drastyczne czy – jak to określa Facebook –„niestosowne” (np. zdjęcia ofiar przemocy). W praktyce bywa różnie. Ofiarą „prywatnej cenzury” padają zdjęcia z reportaży wojennych materiały dokumentujące brutalność policji i inne naruszenia praw człowieka (np. zbrodnie na Rohingach w Birmie) czy relacje z protestów społecznych, ale też „lżejsze” treści, jak zdjęcia modelek „plus size” czy klasycznych dzieł artystów (Rubensa, Courbet’a) portertujęcych nagie kobiety. Z drugiej strony zdarzają się przypadki zorganizowanych kampanii nienawiści (jak np. nawoływanie do eksterminacji Rohingów w Birmie), które na Facebooku „klikają się” tak dobrze, że okazują się nie do ruszenia. Trzecia warstwa, bez której dwie poprzednie nie mogłyby działać, to człowiek zatrudniony do sprzątania, do internetowej brudnej roboty. Przez cały dzień, kilka razy na minutę są epatowani obrazami przemocy, ludzkiego ciała, seksu i wszystkiego, co się zatrzymało na wcześniejszych warstwach filtru, a teraz czeka na ich decyzję: „zignoruj” albo „skasuj”? Z tą decyzją zostają sami, oceniani tylko przez algorytm sprawdzający, czy niczego nie pomijają i jak szybko są w stanie przejść dalej. O ich emocje i bezpieczeństwo nikt się nie troszczy. Na ekrany kin właśnie wchodzi firm dokumentujący pracę czyścicieli Internetu: The Cleaners/Czyściele Internetu (2018) w reżyserii Hansa Blocka i Moritza Riesewiecka. Dzięki śledztwu dziennikarskiemu i podróży na Filipiny, twórcom udało się pokazać realia zatrudnienia „na zapleczu” kilku portali internetowych. Docierają do byłych czyścicieli, z których wielu boryka się z zespołem stresu pourazowego. Przywołują liczne przypadki samobójstw i samookaleczeń, jednocześnie z dumą opowiadają o własnym poświęceniu po to, żeby Internet był bezpieczny i przyjazny dla innych. Czyżby? Block i Riesewieck nie poprzestają na dręczącym obrazie ludzi z globalnego południa, skazanych na najgorszą pracę w imię naszego lepszego samopoczucia. Ich śledztwo dociera też do szokujących przykładów nadużyć, z którymi portale internetowe – mimo armii marnie opłacanych czyścicieli – nie są w stanie lub nie chcą walczyć. Konfrontują nas między innymi ze skutkami zorganizowanej kampanii nienawiści wobec Rohingów, do której Birmańczycy od lat z powodzeniem wykorzystywali Facebooka. Film przedstawia kulisy, skutki i ofiary internetowej cenzury, która okazuje się idealnym narzędziem do sterowania rzeczywistością. Dowodzi, że media społecznościowe świadomie angażują się w polityczną grę, na przykład negocjując z niektórymi reżimami ograniczenie użytkownikom dostępu do krytycznych treści. Po jego obejrzeniu zostajemy z niewygodnym pytaniem: jak to możliwe, że internetowe korporacje, o niewielkiej lub zerowej odpowiedzialności wobec swoich użytkowników, zyskały taką władzę nad naszym życiem publicznym? Czy nie jest tak, że część tej władzy oddaliśmy im sami, bo chętnie pozbywamy się odpowiedzialności i tak naprawdę nie lubimy decydować? Czy możemy jeszcze zawrócić z tej drogi? Zapraszamy na pokazy Czyścicieli Internetu od 28 września. Szukającym odpowiedzi na pytania o rolę i odpowiedzialność platform internetowych polecamy inne teksty na ten temat: O nowym podejściu do regulacji platform internetowych O tym, jak w praktyce wygląda moderacja treści na Facebooku (na podstawie śledztwa Guardiana) O działaniu algorytmów filtrujących i profilujących treści, które nam się wyświetlają O tym, jak Facebook przerabia nasz cyfrowy ślad w profile marketingowe O wykorzystaniu profili marketingowych w kampaniach politycznych Od niemal 10 lat Fundacja Panoptykon walczy o wolność w sieci. Wesprzyj nas w tej walce! Katarzyna Szymielewicz Autorka Temat media społecznościowe Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Facebook decyduje Podczas gdy my badamy rolę Facebooka w kampanii wyborczej, niektórzy politycy na własnej skórze odczuwają problemy związane z arbitralnymi decyzjami firmy. Jeden z kandydatów startujący w jesiennych wyborach parlamentarnych twierdzi, że otrzymał zakaz publikacji postów do 8 listopada, inny – ze… 03.10.2019 Tekst Artykuł Państwa przymykały oczy na szkodliwe działania wielkich platform. Jak to naprawić Zamach stanu. Katastrofa. Wywłaszczenie. Forma tyranii. 16.10.2024 Tekst Artykuł Reklama polityczna na Facebooku: zmowa milczenia Polskie partie polityczne nie korzystają z precyzyjnego kierowania komunikatów do wyborców na Facebooku, ale to nie powód do odetchnięcia z ulgą. Od skandalu Cambridge Analytica minęły niemal dwa lata, ale narzędzia wprowadzone przez Facebooka, które miały pozwolić na większą przejrzystość reklam… 27.04.2020 Tekst