Artykuł 11.03.2022 9 min. czytania Tekst Image Rosyjska wojna propagandowa zaczęła się na długo przed militarną agresją 24 lutego. Nacjonalistyczna i ksenofobiczna narracja ze strony rosyjskich władz i kontrolowanych przez nie mediów jest z nami przynajmniej od 2014 r. Jednym ze skuteczniejszych narzędzi rozsiewania dezinformacji, której celem było podzielenie i zdestabilizowanie Unii Europejskiej, okazały się media społecznościowe. To idealna okazja, żeby z problemem dezinformacji rozprawić się systemowo – przyjmując przemyślane regulacje platform internetowych w ramach aktu o usługach cyfrowych (Digital Services Act, DSA). Przemyślane regulacje w ramach DSA zamiast cyfrowych sankcji Liderzy rządów (w tym polski premier), media i organizacje społeczne zaapelowały do platform internetowych o podjęcie nadzwyczajnych kroków. Pojawiły się apele o „cyfrowe sankcje”, które miałyby powstrzymać rosyjską machinę propagandową: zawieszenie kont usprawiedliwiających agresję na Ukrainę, rosyjskich i białoruskich urzędów oraz zależnych od władzy mediów, jak również całkowitą demonetyzację wszystkich kont szerzących dezinformację. Te głosy są zrozumiałe: w warunkach wojny informacyjnej, jaka toczy się równolegle z konfliktem zbrojnym, rządy i media mają prawo oczekiwać, że zachodnie firmy technologiczne opowiedzą się po tej samej stronie barykady. A wobec zbrodni wojennych, jakich dopuszczają się na oczach całego świata rządy Rosji i Białorusi, żadna z cyfrowych sankcji nie wydaje się surowa. Trudno jednak uciec od innych pytań. Czy sankcje, wymierzane przez Twittera, Alphabet (właściciela YouTube’a) i Metę (właściciela Facebooka, Instagrama i WhatsAppa), mają w tym momencie znaczenie inne niż symboliczne? Czy to, że z zachodnich mediów społecznościowych wytniemy oficjalną rosyjską propagandę, nie sprawi jedynie, że sami stracimy ją z oczu, podczas gdy mieszkańcy i mieszkanki Rosji będą jeszcze bardziej odizolowani i indoktrynowani w kanałach kontrolowanych przez rząd? Wreszcie: czy nawołując platformy internetowe do sięgania po cenzorski skalpel, nie zapominamy o poważniejszym problemie: o algorytmach, które niezmiennie podbijają treści emocjonujące, sensacyjne i polaryzujące, bez względu na ich pochodzenie i wartość informacyjną? O tym, jak systemowo rozwiązać problem dezinformacji i ograniczyć szkodliwe społeczne skutki działania algorytmów zoptymalizowanych na klikalność, Komisja Europejska rozmawia z platformami internetowymi od 2018 r. Już wtedy wszystkie liczące się w sieci firmy zadeklarowały gotowość do zmian i – pod presją Komisji Europejskiej – wypracowały kodeks dobrych praktyk. Niestety, tamte deklaracje nie przełożyły się na realne działania. Porażkę samoregulacji w tym obszarze widać nie tylko w skuteczności rosyjskich kampanii dezinformacyjnych na Zachodzie. Dzięki dokumentom ujawnionym przez Frances Haugen dostaliśmy do ręki dowody na to, że Facebook ma świadomość igrania swoich algorytmów z ogniem, ale w imię własnych interesów nadal na to pozwala. Z tego powodu w 2020 r. Komisja Europejska przestała liczyć na dobrowolne dobre praktyki wielkich platform i przeszła do regulacyjnej ofensywy, inicjując prace nad Digital Services Act (DSA, akt o usługach cyfrowych). Chociaż sytuacja jest bezprecedensowa, to pozwolenie, a wręcz nawoływanie platform internetowych do wykorzystania cenzorskiego cepa, tylko pogłębi problemy, z którymi chcemy walczyć. Rozwiązać je może tylko twarda regulacja i przemyślane systemowe rozwiązania w obszarze regulacji platform internetowych. Panoptykon od lat zwraca uwagę na złożone mechanizmy odpowiedzialne za skalę propagandy i dezinformacji w sieci, podkreślając rolę algorytmów (promujących treści sensacyjne czy polaryzujące) i odpowiedzialność samych platform internetowych za ich toksyczny model biznesowy. Jeszcze nie jest za późno: te rozwiązania można wprowadzić do DSA na etapie trwającego trilogu. Będziemy o tym rozmawiać z przedstawicielami polskiego rządu w Radzie Unii Europejskiej oraz z eurodeputowanymi. Jak użytkownik ma się zachować na cyfrowym froncie? A co ma tymczasem zrobić zwykły „zjadacz” internetowego contentu? W ostatnich tygodniach konsumpcja informacji skokowo wzrosła. Zaczynamy dzień wojną i na niej kończymy, co chwilę odświeżając strumień informacji. Ludzki odruch, nad którym przecież trudno zapanować – chcemy na bieżąco śledzić to, co się dzieje w Ukrainie i na polskiej granicy. Jednocześnie słyszymy ostrzeżenia ekspertów: „w tej wojnie dezinformacja jest jednym ze skuteczniejszych oręży”. Okazuje się, że widzieć, nawet jeśli chodzi o nagrania z miejsca zdarzenia, nie znaczy wiedzieć, a tym bardziej rozumieć. Każde doniesienie z frontu i każde ostrzeżenie o nadchodzącej katastrofie powinno wzbudzić naszą czujność. Podczas gdy Ukraina zręczną narracją wygrywa kampanię informacyjną w zachodnich mediach, rosyjska machina propagandowa nie cofa się przed niczym. Mamy do czynienia z bardzo dobrze przygotowaną kampanią obliczoną na podsycanie strachu, szerzenie chaosu informacyjnego i rozbijanie naszej solidarności. Gra rosyjskich służb z nastrojami społecznymi jest tym skuteczniejsza, im mniej dany temat rozumiemy lub im bardziej się boimy. Dlatego w ostatnich dwóch tygodniach dezinformacja zbierała łatwe żniwo. Rosyjskie służby do perfekcji opanowały technikę mącenia społecznych nastrojów, łącznie z atakami przeciwko tradycyjnym mediom, by wystawić na próbę ich wiarygodność. Już w pierwszych dniach wojny, także w tych mediach, szeroko rozszedł się fake news o rzekomym skażeniu, jakie wykryto w Ukrainie niedługo po zajęciu przez rosyjską armię elektrowni jądrowej w Czarnobylu. Ta dezinformacja padła na podatny grunt, bo Czarnobyl to nadal wyrazisty symbol nuklearnego zagrożenia. W pierwszym odruchu, widząc enigmatyczne nagłówki „Rosjanie zajęli Czarnobyl”, ludzie przeczuwali nadchodzącą nieuchronnie katastrofę, podczas gdy standardowa taktyka prowadzenia wojny zakłada zajmowanie strategicznej infrastruktury na podbijanym obszarze (a wykorzystanie elektrowni jako broni jądrowej uderzyłoby również w Rosję). Te same lęki uruchomiły się kilka dni później, kiedy rosyjscy najeźdźcy zajmowali elektrownię jądrową w Zaporożu, a Europejczycy (nie tylko w Polsce) ruszyli do aptek po płyn Lugola. Tym razem do masowej paniki przyłożyły się media głównego nurtu: fałszywe doniesienia o rosyjskim ataku jądrowym pojawiły się m.in. na pasku TVP Info. Innym przykładem perfekcyjnie przygotowanej przez rosyjskie służby dezinformacji były doniesienia o napływie agresywnych migrantów z Afryki i Azji przez ukraińską granicę. Szeroko rozpowszechniane w mediach społecznościowych fake newsy sprowokowały zupełnie realne akty agresji w Przemyślu i wzburzenie zachodnich mediów. Przed nami kolejne tygodnie wojny, a kryzys migracyjny tak naprawdę dopiero się zaczyna. Dlatego pracujmy nad naszą zbiorową odpornością na dezinformację i medialną panikę. Zacznijmy od czterech prostych zasad, które sformułował Maciej Okraszewski: dziennikarz i autor bloga Dział Zagraniczny (i gość naszego podcastu Panoptykon 4.0): Sięgaj tylko do dużych, tradycyjnych i prestiżowych mediów. Nie szukaj informacji w mediach społecznościowych czy na profilach influencerów. Czytaj mniej krótkich wiadomości (depesz), za to więcej dłuższych analiz. Podawaj dalej wiadomości o pomocy Ukraińcom, a nie informacje o starciach zbrojnych. Trudno jednak nie zauważyć, że sytuacja na froncie wojny informacyjnej komplikuje się z dnia na dzień. Gdy niezależne serwisy informacyjne podają szokujące doniesienia o zbrodniach popełnianych przez rosyjską armię, sama Rosja staje się wyspą odciętą od krytycznej narracji. Rosyjski parlament przyjął przepisy przewidujące kary więzienia – nawet do 15 lat – za szerzenie „fake newsów” o działaniach sił zbrojnych. Kreml uparcie określa inwazję na Ukrainę jako „operację wojskową”, blokuje media, które używają określenia „wojna” i ogranicza działalność zagranicznych mediów społecznościowych na terenie Rosji. W efekcie tej nagonki profesjonalne redakcje (m.in. BBC i TVN) decydują się na wycofanie z Moskwy swoich korespondentów lub zawieszenie ich pracy, a chiński TikTok uniemożliwił rosyjskim użytkownikom dodawanie treści. W tych warunkach weryfikacja wiadomości „u źródła” będzie coraz trudniejsza. Katarzyna Szymielewicz Współpraca: Dominika Chachuła, Dorota Głowacka, Anna Obem Polecamy: Panoptykon 4.0: Big tech na wojnie. Rozmowa z Krzysztofem Izdebskim i Bartoszem Paszczą Panoptykon 4.0: Gdzie szukać informacji, by nie dać się zwieść? Rozmowa z Maciejem Okraszewskim Anna Obem Autorka Temat algorytmy Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Podcast Zdalnie, ale pod nadzorem. Rozmowa z dr. Liwiuszem Laską Czy dom to nowy zakład pracy, a pracodawca może podglądać swoich pracowników przez kamerki? Czy dzięki technologii pracodawcy łatwiej inwigilować związki zawodowe? Jakie zagrożenia niesie ze sobą platformizacja pracy? I czy prawo nadąża za zmianami? Z dr. Liwiuszem Laską, prawnikiem specjalizującym… 24.06.2021 Dźwięk Podcast Mniej papierowych dokumentów, bazy danych, algorytmy. O cyfryzacji ZUS-u mówi prof. Gertruda Uścińska Kto w państwie powinien mieć dostęp do historii medycznej? Na przykład, by sprawdzić, czy pacjent choruje przewlekle i czy leczył się w szpitalu. 11.04.2024 Dźwięk Podcast Algorytmy traumy. Rozmowa z dr. Piotrem Sapieżyńskim Sposób, w jaki wielkie platformy dobierają reklamy do użytkowników, z pozoru jest bardzo prosty: reklamodawca zaznacza, do kogo chce targetować komunikat, a platforma wyświetla treści w najbardziej zaangażowanych grupach. Jednak pomiędzy zleceniem reklamy, a zainteresowaniem produktem zawsze… 07.10.2021 Dźwięk