Artykuł 22.09.2023 5 min. czytania Tekst Image Media społecznościowe, które portretuje Max Fisher w książce „W trybach chaosu. Jak media społecznościowe przeprogramowały nasze umysły i nasz świat”, są bardzo odległe od kolorowych witryn z zamieszczanymi zdjęciami kotków, marchewek o zabawnym kształcie i starych bombek choinkowych. Powstałe na początku XXI wieku przestrzenie do spotkań online to bardzo mroczne miejsca. Rodzą się w nich, manifestują i są pieczołowicie pielęgnowane najgorsze ludzkie instynkty. Fisher na niezliczonych przykładach wyjaśnia, dlaczego społecznościówki karmią hejt i nienawiść; dlaczego promują nie tylko polaryzujące treści, ale i treści zupełnie amerytoryczne (casus antyszczepionkowców i płaskoziemców) – które dzięki temu wzbudzać mogą coraz większe zainteresowanie. Algorytmy tworzone przez egocentryków Czytając Fishera, od ręki wyzbywamy się rozpowszechnionego przekonania, że media społecznościowe to papierek lakmusowy, soczewka. Słynny Lemowski apokryf „Dopóki nie skorzystałem z Internetu, nie wiedziałem, że na świecie jest tylu idiotów” mówi tylko półprawdę – media społecznościowe nie są bowiem neutralnym narzędziem, które pozwala na ekspresję pewnych mankamentów ludzkiej natury. Nie, media społecznościowe za pomocą wyrafinowanych algorytmów, tworzonych nierzadko jeszcze u swojego zarania przez egocentrycznych, młodych, „aspołecznych nonkonformistów” (określenie Petera Thiela, założyciela PayPala i pierwszego zewnętrznego inwestora Facebooka) wyłuskują emocjonalne zachowania, wzmacniają je, rozszerzają na innych użytkowników i użytkowniczki. Zobacz: Algorytmy traumy. Sprawdziliśmy, czy możesz kontrolować reklamy na Facebooku Czerwone powiadomienia i związane z nimi brzęczyki w smartfonach nie są przypadkowe – uczymy się na bodźcach niczym pies Pawłowa. Sprawiają przyjemność, chcemy tego więcej, odpalamy więc aplikację co chwilę. I jeszcze częściej. Dziennikarz „New York Timesa” tłumaczy – przytaczając szereg przykładów z różnych podpodwórek Doliny Krzemowej – że media społecznościowe obarczano grzechem pierworodnym: algorytmami, które przykuwają do smartfonów i ekranów monitora poprzez wywoływanie złości, oburzenia, gniewu i innych negatywnych emocji. Właśnie to zamienia się w zysk. Regulamin nakierowany na podkręcanie emocji Pozyskane przez Maksa Fishera tajne dokumenty Facebooka pokazują, że co kraj, to „regulamin” (a czasem spisane z literówkami zasady): ważne, by wywoływać i utwardzać angażujące emocje, by był ruch, by była polaryzacja – nawet jeśli konsekwencją jest fizyczna przemoc. Karsten Müller i Carlo Schwarz, badając sytuację w Niemczech po kryzysie uchodźczym, doszli do następujących wniosków: „Uwidoczniła się jedna tendencja. W miastach, w których ponadprzeciętny odsetek obywateli korzystał z Facebooka, znacznie częściej dochodziło do ataków na uchodźców”. W nieco innym kontekście Fisher przywołuje też intrygujący przykład YouTube’a, którego algorytm połączył treści o charakterze pornograficznym z neutralnymi filmikami rodzinnymi, gdzie np. dzieci ćwiczą szpagaty – i kierował je prosto do zainteresowanego odbiorcy. Analizujący zjawisko badacze uświadomili sobie, że „System znalazł, a może nawet stworzył, grono odbiorców takich nagrań. I robił wszystko, by nie tracili zainteresowania”. Image Okładka książki „W trybach chaosu. Jak media społecznościowe przeprogramowały nasze umysły i nasz świat”, wyd. Szczeliny Fisher, powołując się na badania, wskazuje, że wprawdzie część osób oglądających wizerunki dzieci zamieszczone w sieci w kontekście erotycznym, na tym poprzestaje, ale pewna grupa może podjąć działania na rzecz zainicjowania kontaktu z dzieckiem. Nie u wszystkich impulsy pedofilskie są wrodzone, czasem rozwijają się z czasem. Powiadomiona o odkryciach platforma nie zgodziła się z tymi wnioskami, jednak felerny algorytm układający filmy w serie został zmodyfikowany. Książka Maksa Fishera wciąga jak powieść sensacyjna. Główni bohaterowie tej opowieści to nasi starzy znajomi, z którymi spotykamy się codziennie, do których przyzwyczailiśmy się i których całkiem lubimy (dostarczają nam wszak strzałów dopaminy każdego dnia!). Każdy kolejny rozdział zwiększa jednak dyskomfort. Zapewne lepiej czuliśmy się przed lekturą – bez balastu wiedzy na temat mechanizmów działania cybergigantów, pozostawiających poczucie niesmaku i świadomość bycia mięsem doświadczalnym. A jednak nie sposób się jej oprzeć. Nie tylko algorytmy z Doliny Krzemowej bywają diabelnie wciągające! Urszula Dobrzańska Autorka Image Działania organizacji w latach 2022–2024 dofinansowane z Funduszy Norweskich w ramach programu Aktywni Obywatele – Fundusz Krajowy. Temat algorytmy Odpowiedzialność pośredników za treści w Internecie Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Administratorem twoich danych jest Fundacja Panoptykon. Więcej informacji o tym, jak przetwarzamy dane osób subskrybujących newsletter, znajdziesz w naszej Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Zobacz także Artykuł Czy nowy cyfrowy ład jest możliwy? Wyobraźmy sobie nowy, cyfrowy ład. Taki, w którym ludzie nie są przetwarzani, jak cyfrowa biomasa, ale mają prawo głosu i są w stanie decydować o swoich danych. Dostają usługi, które są dopasowane do ich potrzeb, a jednocześnie bezpieczne. Nie wysyłają ich danych na giełdy reklam, nie śledzą bez… 28.10.2019 Tekst Artykuł Wygraliśmy z Facebookiem! Gigant nie może cenzurować, jak chce i kogo chce Blokując konta i grupy Społecznej Inicjatywy Narkopolityki (SIN), Meta naruszyła dobra osobiste organizacji. Sąd wydał dziś przełomowy wyrok w sprawie prowadzonej przez Fundację Panoptykon, potwierdzając tym samym, że platformy internetowe nie mogą blokować, jak chcą i kogo chcą. A osoby… 13.03.2024 Tekst Podcast Projekt Chat Control ma chronić dzieci, ale zagraża szyfrowanej komunikacji. Rozmowa z Michałem „ryśkiem” Woźniakiem Od kilku lat w internecie krąży obrazek autorstwa Johna Jonika. Przedstawiciel amerykańskiej władzy jest w sklepie. Ma przy sobie przy sobie pudełko, w którym znajduje się „kontrola komunikacji w internecie”. Sprzedawca pyta: „jak zapakować – w antyterroryzm czy ochronę dzieci”? 11.01.2024 Dźwięk