Raport 16.04.2018 2 min. czytania Tekst Image Skupiając się na fake newsach, botach i algorytmach, łatwo stracić z oczu ludzi – nie tylko tych kreujących treści i narzędzia technologiczne, ale też ich odbiorców. Na ile sami mamy wpływ na jakość i różnorodność informacji, jakie do nas docierają? Czy możemy je „konsumować świadomie”? Czy jesteśmy skazani na funkcjonowanie w bańkach informacyjnych, czy możemy (powinniśmy) coś w tej sprawie zrobić? Szukając odpowiedzi na te pytania, przeprowadziliśmy we współpracy z naukowcami z Uniwersytetu Pensylwanii badanie debaty politycznej, która toczyła się na polskim Twitterze między 23 września a 22 października 2017 r. W okresie tym nie zabrakło wydarzeń o charakterze silnie polaryzującym społeczeństwo, jak protesty przeciw zaostrzeniu prawa aborcyjnego, prace nad reformą sądownictwa, strajk lekarzy rezydentów, debata na temat reprywatyzacji. Posługując się analizą sieciową i metodami jakościowymi, próbowaliśmy ustalić: jacy aktorzy (osoby, organizacje, sieci społeczne) wywierali największy wpływ na debatę polityczną; jakie były kierunki i dynamika tej debaty (np. czy dochodziło do przejmowania albo „zaśmiecania” ważnych politycznie hashtagów); czy na polskim Twitterze mamy do czynienia z aktywnością i istotnym wpływem przejętych lub sztucznie wyhodowanych kont (botów i innych sztucznych wzmacniaczy? Zachęcamy do zapoznania się z pełną wersją raportu w języku polskim. Maria Wróblewska Autorka Linki i dokumenty Twitter report: Digital propaganda or normal political polarization7.04 MBpdf Twitter: Cyfrowa propaganda czy „normalna” polityczna polaryzacja? (2018)7.08 MBpdf Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Podcast Algorytmy dyskryminują kobiety. Jak to zmienić? Rozmowa z Olgą Kozierowską Kilka lat temu firma Amazon zaliczyła wizerunkową wpadkę, kiedy wyszło na jaw, że testowany przez nich system wspierający rekrutację wyraźnie dyskryminował CV kobiet. Jak zwykle w takich przypadkach okazało się, że zawinił brak refleksji nad danymi, na których uczył się rekrutacyjny algorytm. 09.03.2023 Dźwięk Artykuł Partnerstwo publiczno-prywatne na rzecz inwigilacji? Ciąg dalszy sprawy prepaidów Dążenie władz państwowych do uzyskania jak najszerszej kontroli nad obywatelami jest zjawiskiem starym jak świat. Okazuje się jednak, że prywatne firmy coraz bardziej ochoczo wychodzą naprzeciw inwigilacyjnym zakusom państwa. Na własnej skórze przekonał się o tym ostatnio nasz informator. 24.04.2018 Tekst Artykuł Pomoc społeczna na łasce algorytmów [wywiad] Dlaczego państwa tak chętnie próbują oddać system pomocy społecznej w ręce algorytmów? Zagadnienie tłumaczy kanadyjski socjolog i badacz wykorzystania algorytmów przez administrację publiczną dr Mike Zajko. 04.04.2024 Tekst