Artykuł 15.05.2017 7 min. czytania Tekst Czy Facebook jest w stanie rozpoznawać i wpływać na nasze emocje? Czy potrafi ustalić nasz typ osobowości, nasze przyzwyczajenia, poglądy, zainteresowania, poziom zarobków? Czy wykorzystuje te informacje, by wyświetlić nam spersonalizowaną reklamę lub sponsorowany post? Oczywiście! Cyfrowe imperium Marka Zuckerberga opiera się na przetwarzaniu naszego „cyfrowego łupieżu” w wiarygodne profile i ich komercjalizowaniu. W tej fabryce nie jesteśmy nawet produktem – jesteśmy ludzką biomasą, która zyskuje kształt i wartość dzięki pracy algorytmów. Jak to działa? Zapraszamy do środka.W sieci jesteśmy ludzką biomasą, która zyskuje kształt i wartość dzięki pracy algorytmówTa technologiczna czarna skrzynka skrywa algorytmy, które mają decydujący wpływ na nasze doświadczanie Internetu. To one przesądzają o tym, co wyświetli się na naszym ekranie, a co zostanie pominięte lub schowane; jakie idee będą rozprzestrzeniać się w sieci i które wiadomości uzyskają największą widoczność. Algorytmy definiują też nowe formy pracy i wyzysku. Użytkownicy przestają być klientami, dostarczają jedynie danych, które stają się surowym materiałem do produkcji cyfrowych profili – właściwego towaru, sprzedawanego na internetowych giełdach.Z perspektywy użytkowników Facebook to prosty w obsłudze interfejs do kontaktu ze światem, a zarazem filtr nałożony na Internet, który powoduje, że zamiast szumu informacyjnego dostajemy przyjazną, spersonalizowaną gazetę. To wartość, za którą wiele osób byłoby skłonnych zapłacić realne pieniądze. Facebook nie jest jednak zainteresowany tradycyjnymi formami płatności: z jego perspektywy cenniejsze są nasze dane. To właśnie na nich algorytmy i sieci neuronowe uczą się rozpoznawać korelacje statystyczne i profilować konkretnych użytkowników. Ostatecznie liczy się przecież to, czy klikniesz.Ludzie na sprzedażCzy dobrze dobrana reklama i strumień angażujących nasze emocje newsów mogą być szkodliwe? Tak, jeśli nie mamy wpływu ani na kryteria profilowania, któremu jesteśmy poddawani, ani na logikę, która decyduje o tym, co ostatecznie zobaczymy na ekranie. Fakty są takie, że nie rozumiemy gry, w której bierzemy udział. Nie kontrolując jej reguł i nie znając wszystkich aktorów, jesteśmy spychani do roli przedmiotu nieprzejrzystych i nie zawsze uczciwych transakcji. Sieci neuronowe patrzą, słuchają i uczą się rozpoznawać wzory w naszym zachowaniu. Mając do dyspozycji ponad miliard użytkowników wchodzących ze sobą w interakcje każdego dnia, sieci neuronowe Facebooka uczą się bardzo szybko. Wcześniej niż my wiedzą, w który post zamierzamy kliknąć, jak na niego zareagujemy i jaką reakcję w naszej sieci to wywoła.Nie kontrolując reguł gry i nie znając aktorów, jesteśmy spychani do roli przedmiotu nieprzejrzystych transakcjiPo raz pierwszy na większą skalę użytkownicy Facebooka poczuli się nieswojo, kiedy w 2014 r. wyszło na jaw, że 700 tys. osób wzięło – nieświadomie – udział w eksperymencie badającym wpływ negatywnych i pozytywnych komunikatów na ich zachowanie w sieci. W 2016 r. tamto wzburzenie przykryło tsunami wywołane doniesieniami o politycznej manipulacji, do której mogło dojść w ramach amerykańskiej kampanii Donalda Trumpa i brytyjskiej Leave.EU za sprawą mikrotargetowania użytkowników Facebooka. Architekci obu kampanii głośno chwalili się możliwościami niejawnego wpływania na poglądy i postawy wyborców m.in. przez dark posts (treści widoczne tylko dla konkretnych użytkowników, intensywnie wykorzystywane do ich zmobilizowania lub zdemobilizowania w dzień głosowania).Na ile te działania przesądziły o wyniku wyborów, pozostaje kwestią spekulacji. Faktem jednak jest, że Facebook dużo obiecuje politykom i specjalistom od marketingu politycznego, oferując im, nawet w Europie, dedykowane usługi. „W Facebooku działają – wyspecjalizowane w kontakcie z różnymi partiami – zespoły ds. marketingu politycznego, odpowiedzialne za przekonanie polityków z grubymi portfelami, że są w stanie tak oddziaływać na ludzi, by zmienić wynik wyborów” – twierdzi Antonio Garcia-Martinez. Martinez, który w spędził kilka lat w dziale sprzedaży Facebooka, w tekście opublikowanym na łamach Guardiana otwarcie polemizuje z zapewnieniami firmy, jakoby nie wykorzystywała wiedzy o stanach emocjonalnych swoich użytkowników w celach marketingowych. Jego zdaniem jest to jedyny powód, dla którego Facebook inwestuje w pozyskanie tak głębokiej wiedzy o ludziach.Oferta marketingowa Facebooka obejmuje pełne spektrum stanów emocjonalnych nastolatkówNa początku maja, za sprawą wycieku informacji handlowych z biura Facebooka w Australii, otworzyła się kolejna czarna skrzynka. Okazało się, że portal wystawia na sprzedaż informacje o stanie emocjonalnym swoich użytkowników (nawet tych 14-letnich). Według doniesień dziennika The Australian oferta skierowana do partnerów biznesowych obejmuje szerokie spektrum stanów emocjonalnych nastolatków, które algorytmy Facebooka są w stanie zidentyfikować. I tak okazuje się, że z pomocą tej platformy dowolna firma może namierzyć młodego klienta, który akurat czuje się „niepewny swojej wartości”, „zagrożony”, „beznadziejny”, „głupi”, „nieudaczny” czy „zestresowany”, który właśnie chce schudnąć lub przechodzi życiowy kryzys. Kusząca oferta, nie tylko dla sklepów z modnymi butami.Tajna praca algorytmówDobrać reklamę do użytkownika w sposób, który gwarantuje wysoką klikalność, to podstawowe zadanie, jakie przed platformą społecznościową stawiają jej płacący klienci. A tym samym najważniejsza – ale nie jedyna – praca, którą wykonują działające na rzecz zysku tej firmy algorytmy. Sieci neuronowe uczą się także rozpoznawać ożywione i nieożywione obiekty na zdjęciach, odczytywać znaczenia w potocznym języku, interpretować akcenty i ludzki głos. Dzięki nim Facebook zaczyna rozumieć, o czym naprawdę rozmawiają, co myślą i czego potrzebują jego użytkownicy. Jest też w stanie ustalić ich nawyki (gdzie mieszkają, gdzie pracują, jak zazwyczaj poruszają się po mieście, dokąd i jak często wyjeżdżają, czy są to wakacje, czy podróże służbowe), styl konsumpcji (co kupują) i poziom dochodów (ile są w stanie zapłacić za daną usługę czy towar).Najwięcej o możliwościach profilowania dowiadujemy się z patentów zarejestrowanych przez Facebooka i jego materiałów marketingowychPrzy profilowaniu strumienia aktualności i dopasowywaniu reklam algorytm Facebooka bierze pod uwagę (podobno, ponieważ sam algorytm nigdy nie został ujawniony) setki zmiennych. Czynniki, które firma ujawnia i nad którymi daje swoim użytkownikom pewną dozę kontroli (np. możliwość wskazania konkretnych znajomych i ulubionych źródeł informacji), to tylko czubek góry lodowej. Najwięcej o procesie profilowania dowiadujemy się z analizy patentów zarejestrowanych przez Facebooka w różnych krajach oraz jego materiałów marketingowych (takich jak oferta, która wyciekła z australijskiego biura). Na podstawie tych informacji Vladan Joler z Share Labs odtworzył prawdopodobną logikę działania systemu, który nazwał Algorytmiczną Fabryką Facebooka.Efektem pracy Vladana Jolera jest cykl infografik i esejów ilustrujących złożony proces przerabiania okruchów danych w kompletne i wartościowe profile. Z jednej strony udało mu się zmapować możliwe źródła, z których Facebook czerpie informacje o swoich użytkownikach, oraz rodzaje przetwarzanych danych. Z drugiej –odtworzył produkty pracy algorytmów i sieci neuronowych: kategorie informacji o znaczeniu marketingowym (od wieku, płci i wykształcenia, przez relacje rodzinne i pracę, po szczegółowe określenie zainteresowań i stylu konsumpcji).18 maja na Międzynarodowym Biennale Sztuki Mediów we Wrocławiu Panoptykon i Share Labs zaprezentują interaktywną instalację bazującą na tym materiale. Zapraszamy na wyjątkowy spacer po Algorytmicznej Fabryce Facebooka.Więcej informacji na stronie Centrum Sztuki Wro.Wesprzyj nas w walce o wolność i prywatność w sieci! Wpłać darowiznę na konto Fundacji Panoptykon lub przekaż swój 1,5% podatku (KRS: 0000327613) Katarzyna Szymielewicz Autorka Temat algorytmy biznes reklamowy profilowanie Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł „Sztuczna inteligencja to pusty, nic nieznaczący slogan” – matematyczka o technologiach, wdrażaniu AI i dyskryminacji [wywiad] „Nie wiemy, czy narzędzia sztucznej inteligencji są bezpieczne, bo nie zastanawiamy się nad tym, jak to rzetelnie sprawdzić” – mówi Cathy O’Neil, matematyczka, autorka książek i badaczka algorytmów. Zapraszamy na wywiad dziennikarza Jakuba Dymka. 14.08.2024 Tekst Artykuł Trzy najważniejsze rzeczy, które zmieni DSA W Brukseli zakończyły się właśnie w trójstronne negocjacje instytucji unijnych nad aktem o usługach cyfrowych (Digital Services Act, DSA) – regulacją, która prawdopodobnie ustali warunki nowego ładu cyfrowego w Unii na kolejne dwie czy trzy dekady. 26.04.2022 Tekst Artykuł Prześwietleni przez algorytm O tym, jak algorytmy poznają tajniki naszej osobowości i czy można je oszukać, mówi dr Patrycja Rudnicka w wywiadzie z Izabelą Meyzą specjalnie dla Fundacji Panoptykon. 07.02.2018 Tekst