Prawda algorytmów

Artykuł
13.04.2017
10 min. czytania
Tekst
Image

„Dostęp do informacji pomaga rozliczać rządzących, generuje nowe idee, wspiera kreatywność i przedsiębiorczość” – w styczniu 2010 r., przemawiając w waszyngtońskim Newseum, Hillary Clinton broniła prawa do Internetu z gorliwością zręcznego polityka. Z perspektywy 2016 r. te wyobrażenia o transformacyjnej i pozytywnej roli nowych mediów, o dojrzalszej demokracji i edukacji obywatelskiej, wydają się niemal naiwne. A przecież jeszcze w 2011 r., kiedy Evgeny Morozov publikował „The Net Dilussion”, krytyczne spojrzenie na mariaż technologii i polityki było obierane jako intelektualna ekstrawagancja.

Dziś nikogo nie trzeba przekonywać, że elektroniczne media to przede wszystkim biznes, bez miejsca na kontrolę jakości. Przyzwyczailiśmy się do tego, że nie kontrolujemy i nie sprawdzamy źródeł, zamykamy się na odmienne poglądy; przetwarzamy coraz więcej informacji, ale coraz mniej rozumiemy świat i ludzi. W wywiadzie dla „Polityki” kulturoznawca Mirosław Filiciak mówi: „klasyczna wizja, że debata publiczna z udziałem mediów służy porozumieniu, rozsypuje się jak jakaś fantastyczna utopia”. Jednak gdyby nie szok wywołany przez skalę i realny wpływ tzw. podrobionych wiadomości w 2016 r., zapewne wcale byśmy tego nie zauważyli.

Zafrapowany poziomem dezinformacji, na której skorzystał Donald Trump, Craig Silverman (BuzzFeed) przyjrzał się temu, co się działo w mediach społecznościowych w kluczowych miesiącach minionego roku. Przeanalizował zaangażowanie (tj. liczbę reakcji), jakie wywoływały rzetelne doniesienia medialne i sfabrykowane narracje. Silverman ustalił, że wraz z rozwojem kampanii rósł poziom zaangażowania po stronie nieprawdziwych newsów, by w kulminacyjnym puncie przebić rzetelne doniesienia o 1,4 miliona reakcji!

Kariera „fałszywych wiadomości” w ostrym świetle pokazała mechanizmy, przez którymi sceptyczni badacze nowych technologii przestrzegali od dawna. Łatwość w promowaniu kłamstw i pół-prawd to pochodna ogólnej podatności mediów elektronicznych na dezinformację; skutek uboczny modelu dystrybucji treści, opartego na zasadzie: im więcej klikają, tym lepiej, mniejsza o jakość. Ta bylejakość nie kończy się z momentem, w którym zamykamy przeglądarkę: kryzys mediów elektronicznych w realny sposób przekłada się na życie społeczne i politykę. Dopóki on trwa, mamy wątpliwe szanse na przezwyciężenie innych kryzysów, napędzanych przez populistyczną retorykę.

Co poszło nie tak? Kto nam ukradł internetową utopię i podstawił „fałszywkę”? I dlaczego zorientowaliśmy się tak późno?

Nadmiar

Historia tego upadku zaczyna się od nadmiaru. Coraz więcej treści trafia do sieci, bo to się opłaca. W tradycyjnych mediach kluczowym ograniczeniem był wysoki koszt produkcji treści: każda kolejna strona drukowanej gazety musi się zwrócić. W efekcie na szpalty trafiały tylko te treści, które dawały szansę wysokiej sprzedaży. W mediach elektronicznych obowiązuje odwrotna logika: więcej nie znaczy drożej, a wręcz ilość przekłada się na zarobek. Dlatego serwisy i sklepy internetowe utrzymują dużo niszowych treści, które mają szansę przyciągnąć dodatkowych czytelników. Chris Anderson (Wired, 2004 r.) opisał ten model generowania zysku jako efekt długiego ogona. Po przeanalizowaniu struktury zysków największych serwisów takich gigantów jak Amazon czy Netflix Anderson doszedł do wniosku, że w ogólnym rozliczeniu większe dochody przynosi im utrzymywanie masy niszowych produktów niż sprzedaż najbardziej popularnych. (...)

Nadmiar informacji – wpisany w ekonomiczny model działania mediów elektronicznych – podnosi wartość naszej uwagi. Jak twierdzą Michael Goldhaber i Georg Franck (promotorzy pojęcia „ekonomia uwagi” ) to właśnie ona jest dziś najrzadziej występującym i najbardziej pożądanym dobrem. Ten, kto jest w stanie skupić na sobie więcej uwagi, zyskuje większą władzę. Z kolei rosnąca wartość uwagi stymuluje ostrzejszą konkurencję treści, które muszą o nią walczyć. W efekcie nasze otoczenie jest najeżone sygnałami, które mają za zadanie złowić nasze spojrzenie i przekierować uwagę, choćby na sekundę, w stronę jakiegoś produktu. Dla naszego mózgu ten wyścig jest szalenie męczący.

„Zbyt dużo informacji do przetrawienia dla naszego mózgu prowadzi do niemożności oceny sytuacji, która z kolei wywołuje uczucie ekstremalnego znużenia” – tak o efekcie tzw. zmęczenia informacyjnego piszą Andrew Stanley i Philip Clipshain („Information Overload – Myth or Reality”). Na eskalację tego efektu wpływa ciągłe podłączenie do urządzeń, a za ich pośrednictwem – mediów społecznościowych. To pokoleniowe doświadczenie cyfrowych tubylców, których praktyki komunikacyjne od lat bada danach boyd. Badaczka pisze o kulturze always-on, ciągłego podłączenia i ciągłej ekspozycji na elektroniczne komunikaty. W tych warunkach zaciera się granica między byciem online i offline, potęgując efekt zmęczenia i zagubienia.

Filtr

Środkiem zaradczym na informacyjne przegrzanie miały być media społecznościowe, zmieniające model dystrybuowania treści. „Naszym celem jest dostarczenie perfekcyjnie spersonalizowanej gazety każdemu człowiekowi na świecie” – tak misję Facebooka podsumował Mark Zuckerberg w publicznej rozmowie z 2014 r. „Dążymy do tego, żeby pokazywać ci to, co zainteresuje cię najbardziej”. Takie dopasowanie, od samego początku, było istotą strumienia aktualności (News Feed), czyli osi, wokół której krąży świat użytkowników Facebooka. Zuckerberg bardzo wcześnie zrozumiał, że rynek internetowych mediów wygra ten, kto da ludziom złudzenie dostępu do wszystkiego, przy jednoczesnym ograniczeniu tego, co rzeczywiście widzą, do dawki strawnej dla ludzkiego mózgu.

Zuckerberg utrzymuje, że przeciętny użytkownik Facebooka byłby narażony na najmniej 1500 różnych wiadomości dziennie, a dzięki personalizacji strumienia aktualności widzi tylko 100. Odfiltrowywanie z szumu informacyjnego treści, które naprawdę „powinniśmy” zobaczyć, to największa praca, jaka dokonuje się na tym portalu. Każdego dnia, bez przerwy na kawę (czy wręcz w przerwie na kawę od innych zadań) miliony ludzi sumiennie klikają. Oznaczają, komentują, podają dalej. Angażują swój intelekt i emocje. Starają się wypaść jak najlepiej – publikować to, za co ich znajomi odwdzięczą się podniesionym w górę kciukiem. Są przekonani, że wygrywają na tym widoczność, pole do osobistej ekspresji i kontakty. W rzeczywistości ciężko pracują.

Podczas gdy inne portale próbują kapitalizować efekt długiego ogona, generując i przechowując niespożyte ilości informacji, serwisy społecznościowe zarabiają na tym, że ludzkimi rękami komponują z tych zasobów spersonalizowane, dynamiczne gazety.

Zjawisko filtrowania społecznościowego opisywał socjolog Dominik Batorski, opierając się na danych z badania World Internet Project za 2013 r. Jego analiza pokazała, że filtrowanie treści – poprzez jej publikowanie na stronie, oznaczanie, komentowanie lub podawanie dalej – to podstawowa czynność wykonywana przez użytkowników serwisów społecznościowych. W 2013 r. 35% z badanych potwierdzało, że lajkuje, dzieli się lub w inny sposób promuje treści zamieszczone przez inne osoby przynajmniej raz w tygodniu. Czynności związane z docieraniem do i propagowaniem informacji okazały się znacznie popularniejsze niż praktyki związane z publikowaniem własnych treści (dla różnych kategorii treści w 2013 r. był to wynik w przedziale od 9 do 12% badanych).

Batorski podkreśla, że rola serwisów społecznościowych w filtrowaniu informacji jest nie do przecenienia: „Nawet jeśli przekazywane treści nie są publicznie widoczne, a dostęp do nich maj jedynie znajomi danej osoby, to i tak ten proces ze względu na swój skalę ma istotne znaczenie”.

W pewnym sensie uzdatniają one Internet do spożycia dla przeciętnych użytkowników. Co znamienne, jednocześnie maleje rola wyszukiwarek i portali informacyjnych. (...)

Algorytm

Problem puchnących od informacji serwisów, na który tak dobrze odpowiedziały serwisy społecznościowe, szybko zaczął dotyczyć ich samych. Jak utrzymać poziom zaangażowania użytkowników-pracowników, kiedy ci są zalewani nieistotnymi bodźcami, generowanymi przez rosnące grono znajomych? Bierny użytkownik to dla Facebooka stracone miejsce na serwerze. Recepta wydawała się oczywista: ograniczyć bodźce do tych, które najskuteczniej prowokują kolejne interakcje. Łatwiej to jednak pomyśleć, niż zrobić. Nawet skoordynowana armia ekspertów nie byłaby w stanie przeanalizować wszystkich czynników, jakie wpływają na naszą gotowość do interakcji, i w czasie rzeczywistym zdecydować, co w związku z tym powinniśmy zobaczyć na ekranie. Co innego algorytm.

Sztuczna inteligencja to podstawa Facebookowego strumienia aktualności i systemu rekomendacji. Jej zadaniem jest wyświetlić taką treść, która najskuteczniej sprowokuje nas do interakcji – czyli wykonania pracy, jakiej oczekuje od nas firma. Zdaniem Mirosława Filiciaka ciągle mówimy o prasie, telewizji, ale w istocie media rozlały się poza tradycyjną klasyfikację, a o ich funkcjonowaniu i przepływach komunikacyjnych decydują dziś algorytmy, oprogramowanie, protokoły. O porozumiewaniu między ludźmi, ale także ludzi z maszynami i maszyn z maszynami w coraz większym stopniu decydują dziś tzw. aktorzy nie-ludzcy”. Sieci neuronowe patrzą, słuchają i uczą się rozpoznawać modele w naszym zachowaniu. Mając do dyspozycji ponad miliard użytkowników, wchodzących ze sobą w interakcje każdego dnia, sieci neuronowe Facebooka uczą się bardzo szybko. Wcześniej niż my wiedzą, na jaki post zamierzamy kliknąć, jak na niego zareagujemy i jaka reakcję w naszej sieci to wywoła.

Tymi nie-ludzkimi aktorami ktoś jednak zarządza, programuje i wyznacza im cele. Taką osobą dla Facebooka jest Joaquin Candela, szef Applied Machine Learning Group. W styczniu tego roku Candela przyznał bez ogródek: „Facebook dziś nie istnieje bez sztucznej inteligencji. Możesz sobie z tego nie zdawać sprawy, ale za każdym razem, kiedy używasz Facebooka, Instagrama czy Messengera, to doświadczenie jest możliwe właśnie dzięki AI”. Rolę sztucznej inteligencji w imperium Facebooka zbadał i opisał Steven Levy (Backchannel). Jej kariera zaczęła się od podstawowego zadania, jakie przed platformą stawiają jej płacący klienci: w czasie rzeczywistym przewidzieć, ile osób zareaguje na konkretną reklamę. I się nie pomylić. Po tym, jak Joaquin Candela ustawił algorytm dopasowujący reklamy, podjął się rozprowadzenia sztucznej inteligencji po całej firmie.

Dziś ta technologia odpowiada za analizowanie zdjęć (rozpoznawanie ożywionych i nieożywionych obiektów), naturalnego języka i głosu. Dzięki niej Facebook zaczyna naprawdę rozumieć, o czym rozmawiają i czego potrzebują jego użytkownicy. Ta wiedza jest bezcenna przy profilowaniu strumienia aktualności. Algorytm Facebooka bierze pod uwagę to, ilu naszych znajomych polubiło lub podało dalej daną treść, i preferencje, jaki sami ujawniliśmy, wykonując tę pracę w przeszłości. To jednak tylko czubek góry lodowej – w grę wchodzą (podobno, ponieważ sam algorytm nigdy nie został przez firmę ujawniony) setki zmiennych. Algorytmiczne sito musi być bardzo gęste: żeby wybrać ten jeden post, jaki zobaczymy w pierwszej kolejności zaglądając na swoją stronę, Facebook ma do przeanalizowania tysiące innych.

Nie mamy wpływu na wynik tej operacji, ale możemy zmodyfikować zmienne, jakie algorytm weźmie pod uwagę. Odpowiadając na sygnały od użytkowników, Facebook wielkodusznie pozwolił oznaczać znajomych, których posty chcemy oglądać w pierwszej kolejności i tych, których nie chcemy widzieć wcale. Możemy też doraźnie zmienić kolejność wyświetlanych zdarzeń, tak żeby w pierwszej kolejności widoczne były te najnowsze. To jednak chwilowy przywilej: przy kolejnym wejściu na stronę algorytm powróci do pokazywania tych najpopularniejszych. Ostatecznie liczy się przecież to, czy klikniemy, żeby przeczytać lub skomentować opis. 

Katarzyna Szymielewicz

Cały tekst ukazał się w Niezbędniku Inteligenta Tygodnika POLITYKA: „Wielkie Post”, 3.04.2017

Obrazek: CC0 Public Domain

Temat

Newsletter

Otrzymuj informacje o działalności Fundacji

Administratorem twoich danych jest Fundacja Panoptykon. Więcej informacji o tym, jak przetwarzamy dane osób subskrybujących newsletter, znajdziesz w naszej Polityce prywatności.