Podcast 07.10.2021 2 min. czytania Dźwięk Image Sposób, w jaki wielkie platformy dobierają reklamy do użytkowników, z pozoru jest bardzo prosty: reklamodawca zaznacza, do kogo chce targetować komunikat, a platforma wyświetla treści w najbardziej zaangażowanych grupach. Jednak pomiędzy zleceniem reklamy, a zainteresowaniem produktem zawsze pojawia się człowiek, który interesuje się treściami. Wszystko idzie dobrze, jeśli tylko człowiek dostaje dopasowane do siebie treści, ale co się dzieje, kiedy reklamy zaczynają niepokoić, denerwować, a nawet podkręcać lęki i problemy psychiczne? O badaniu algorytmów traumy rozmawiamy z dr. Piotrem Sapieżyńskim - badaczem z Northeastern University w Bostonie, zajmującym się audytowaniem algorytmów, weryfikowaniem i mierzeniem potencjalnej szkody, jakie komercyjne produkty oparte na sztucznej inteligencji mogą wyrządzić zarówno na skalę społeczną, jak i pojedynczym użytkownikom. Czy podobna sytuacja do tej, opisanej w eksperymencie zdarzyła się również tobie? Czy treści sponsorowane na Facebooku lub innych platformach internetowych mają na ciebie negatywny, krzywdzący wpływ? Wyślij nam swoją historię, nie upublicznimy jej bez twojej zgody: https://crm.panoptykon.org/algorytmy-traumy-twoja-historia Odsłuchaj, dodaj do ulubionej aplikacji przez RSS lub obejrzyj na YouTube'ie lub Vimeo. Na skróty: 00:01 Wprowadzenie 04:53 Skąd Facebook wie, jakie reklamy nam pokazać? 08:39 Eksperyment kontrolowania “zainteresowań” 17:14 Rola reklamodawcy w sponsorowaniu treści 23:14 Reakcja Facebooka 29:00 Dyskryminacja w reklamie na Facebooku 39:13 Czy Facebook może oddać kontrolę użytkownikom i użytkowniczkom? 46:25 Subskrypcja na algorytm 52:25 Ciężkie życie naukowca Do poczytania: Panoptykon: Algorytmy traumy. Sprawdziliśmy, czy możesz kontrolować reklamy na Facebooku Financial Times: Time to turn off Facebook’s digital fire hose Spider’s Web+: Masz swoje cichutkie, ukryte obawy? Facebook sprytnie je odkryje i podsunie takie reklamy, by zmieniły się w lęki Wall Street Journal: Inside TikTok's Algorithm: A WSJ Video Investigation Discrimination through Optimization: How Facebook's Ad Delivery Can Lead to Biased Outcomes Propublica: Dozens of Companies Are Using Facebook to Exclude Older Workers From Job Ads Tim Hwang: Subprime Attention Crisis Podobają Ci się nasze podcasty? Pomóż nam dalej tworzyć wartościowe treści. Wpłać darowiznę na konto Fundacji Panoptykon i przekaż 1% podatku (KRS: 0000327613) Audio file Aleksandra Iwańska Autorka Temat algorytmy Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Administratorem twoich danych jest Fundacja Panoptykon. Więcej informacji o tym, jak przetwarzamy dane osób subskrybujących newsletter, znajdziesz w naszej Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Zobacz także Podcast Algorithms of Trauma 2. How Facebook Feeds on Your Fears Worried about your health? Facebook won’t let you forget. 07.12.2023 Dźwięk Raport Algorytmy uczenia maszynowego w komunikacji z konsumentami. Jak i po co o nich mówić? Wnioski z badania 13.02.2022 Tekst Podcast O wpływie algorytmów na kampanię wyborczą. Rozmowa z Agatą Kaźmierską i Wojciechem Brzezińskim Wyobraźmy sobie, że partie polityczne nie mają już programów, nie prowadzą spójnej kampanii wyborczej, w której składają publiczne obietnice. 05.10.2023 Dźwięk