Artykuł 13.04.2023 5 min. czytania Tekst Image Po wielu zapowiedziach Elon Musk udostępnił kod źródłowy m.in. algorytmu rekomendującego treści organiczne – czyli te, które widać w zakładce „dla ciebie” na Twitterze. Większa przejrzystość nie oznacza jeszcze zdrowszego medium ani większej wolności użytkowników i użytkowniczek Twittera. Na to trzeba nam jeszcze poczekać przynajmniej do września. Musk ze specjalną etykietą, ale nie tylko Elon Musk ma specjalną etykietę do swoich tweetów. Co oznacza, że jego zasięg może być sztucznie podnoszony (albo zmniejszany). O tej rewelacji wiedzieliśmy już od jakiegoś czasu – i zdążyliśmy się do niej przyzwyczaić. Znacznie bardziej interesujący jest fakt, że w algorytmie pojawiają się też etykiety „demokraci” i „republikanie”. Nie wiadomo, na jakiej zasadzie są przypisywane użytkownikom i użytkowniczkom ani ilu osób dotyczą. Sam fakt ich istnienia rodzi pytanie o to, w jaki sposób mogą być wykorzystane. Czy np. w okresie kampanii wyborczej mogłyby służyć podkręcaniu widoczności tweetów użytkowników o konkretnych poglądach czy afiliacji politycznej? Czy są wykorzystywane tylko na terytorium USA? A może dychotomiczny podział świata na „demokratów” i „republikanów” jest też stosowany do krajów o systemie wielopartyjnym? Wątpimy, ale jeżeli by tak było, byłby to jasny sygnał, że Twitter sprzyja pogłębiającej się polaryzacji społecznej. Polaryzacja na Twitterze: zobacz badanie Panoptykonu Jak działa feed? Wcześniej mogliśmy się domyślać Dzięki otwarciu kodu Twitter wysuwa się na prowadzenie w wyścigu o miano „najbardziej przejrzystej platformy”. Jego ruch pozwoli lepiej zrozumieć, z jakich danych o swoich użytkownikach i użytkownikach korzysta firma oraz jakiego typu informacje może sobie z nich wyinterpretować. Przede wszystkim pozwoli zweryfikować, ile prawdy było w argumentach innych platform internetowych, które odmawiały ujawnienia algorytmów ze względu na ryzyko rozegrania ich przez siejące dezinformację boty i farmy trolli. Z radykalnego ruchu Twittera cieszą się na pewno badacze i marketingowcy, których praca jest teraz łatwiejsza. Za kilka miesięcy w jego ślady pójdą też inne platformy: Facebook, TikTok czy YouTube. Bo muszą. Od września 2023 r. platformy będzie obowiązywać akt o usługach cyfrowych (Digital Services Act, DSA). Zgodnie z unijnym prawem platformy będą musiały ujawnić logikę funkcjonowania systemów doboru treści. Dowiemy się, jakie kluczowe parametry są wykorzystywane przy rekomendacjach, a także jaki efekt próbuje osiągnąć algorytm, np. czy celem jest klikalność, spędzanie czasu na platformie, czy zakładanie nowych kont. To właśnie te informacje Unia Europejska uznała za kluczowe, by móc ocenić skutki oddziaływania usług internetowych na konsumentów i konsumentki. Samo ujawnienie gołego kodu algorytmu, jak to się stało w przypadku Twittera, to jeszcze za mało. Przejrzysty nie oznacza bezpieczny Czy ujawnienie algorytmu Twittera oznacza, że stanie się on zdrowszy dla korzystających z niego użytkowników i użytkowniczek? Raczej nie. Od przejrzystości jeszcze kilka kroków do rozliczalności. Algorytm, który dyskryminuje ze względu na przynależność rasową, religijną czy niepełnosprawność (to wszystko zarzuty wobec algorytmu oznaczającego zdjęcia na Twitterze), nie stanie bardziej sprawiedliwy tylko dlatego, że będziemy mogli w niego zajrzeć. A przecież to na tym najbardziej nam zależy. Dajcie nam wybór Olej palmowy w składzie może zniechęcić kogoś do kupienia określonego batonika. Niestety ta sama zasada nie działa w przypadku mediów społecznościowych. Nawet znając algorytm platformy i indywidualne i społeczne konsekwencje jego działania, zamknięcie konta często nie wchodzi w grę (bo np. to właśnie na grupie na Facebooku wykładowcy przesyłają informacje o pracach domowych studentom). Rozwiązaniem może być interoperacyjność platform, czyli danie użytkownikom i użytkowniczkom większego wyboru. Zapalony twitterowicz zamiast polegać na algorytmie firmy Elona Muska mógłby wybrać system rekomendacyjny konkurencyjnej firmy, rządzący się inną logiką, np. promujący jakościowe informacje. Albo oglądać swój facebookowy strumień aktualności w innej usłudze, np. na Mastodonie. Niestety akt o usługach cyfrowych nie wymaga od platform aż takiego otwarcia na potrzeby użytkowników i użytkowniczek. Wymaga za to, żeby każda firma zaoferowała alternatywny do domyślnego system rekomendowania treści. W przypadku Twittera ten obowiązek może realizować istniejący już strumień aktualności oparty o chronologię. O tym, jak platformy poradzą sobie z tym zadaniem (i czy potraktują je poważnie), dowiemy się już we wrześniu. To wtedy mija termin dostosowania się gigantów internetu do nowych przepisów. Jak próbowaliśmy prześwietlić algorytmy platform? Sprawdź raport Kto (naprawdę) Cię namierzył? albo artystyczny projekt Algorytmiczna fabryka Facebooka Działania organizacji w latach 2022-24 dofinansowane z Funduszy Norweskich w ramach programu Aktywni Obywatele – Fundusz Krajowy. Maria Wróblewska Autorka Temat algorytmy Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Administratorem twoich danych jest Fundacja Panoptykon. Więcej informacji o tym, jak przetwarzamy dane osób subskrybujących newsletter, znajdziesz w naszej Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Zobacz także Artykuł Czy nowy cyfrowy ład jest możliwy? Wyobraźmy sobie nowy, cyfrowy ład. Taki, w którym ludzie nie są przetwarzani, jak cyfrowa biomasa, ale mają prawo głosu i są w stanie decydować o swoich danych. Dostają usługi, które są dopasowane do ich potrzeb, a jednocześnie bezpieczne. Nie wysyłają ich danych na giełdy reklam, nie śledzą bez… 28.10.2019 Tekst Podcast Kiedy twarz staje się kluczem. Rozmowa z dr Magdaleną Tomaszewską-Michalak Na szczeblu europejskim trwa właśnie dyskusja o wprowadzeniu zakazu masowego rozpoznawania twarzy. Jak działa technologia rozpoznawania twarzy? Gdzie jest używana? W jakim celu sięga po nią policja i z jakimi kosztami społecznymi się wiąże? Co możemy zyskać, a co stracić, jeżeli w porę nie… 18.06.2020 Dźwięk Podcast Zdradzi cię „profilowe”. Rozmowa z Michałem Kosińskim Ile prawdy o człowieku kryje się w korelacjach statystycznych, które pokazują badania Michała Kosińskiego? Czy te same zależności potwierdziłyby się poza przebadaną przez Kosińskiego grupą osób aktywnych na portalach społecznościowych i randkowych, które dobrowolnie ujawniły swoją afiliację… 25.02.2021 Dźwięk