Podcast 07.10.2021 3 min. czytania Dźwięk Image Sposób, w jaki wielkie platformy dobierają reklamy do użytkowników, z pozoru jest bardzo prosty: reklamodawca zaznacza, do kogo chce targetować komunikat, a platforma wyświetla treści w najbardziej zaangażowanych grupach. Jednak pomiędzy zleceniem reklamy, a zainteresowaniem produktem zawsze pojawia się człowiek, który interesuje się treściami. Wszystko idzie dobrze, jeśli tylko człowiek dostaje dopasowane do siebie treści, ale co się dzieje, kiedy reklamy zaczynają niepokoić, denerwować, a nawet podkręcać lęki i problemy psychiczne?O badaniu algorytmów traumy rozmawiamy z dr. Piotrem Sapieżyńskim - badaczem z Northeastern University w Bostonie, zajmującym się audytowaniem algorytmów, weryfikowaniem i mierzeniem potencjalnej szkody, jakie komercyjne produkty oparte na sztucznej inteligencji mogą wyrządzić zarówno na skalę społeczną, jak i pojedynczym użytkownikom.Czy podobna sytuacja do tej, opisanej w eksperymencie zdarzyła się również tobie? Czy treści sponsorowane na Facebooku lub innych platformach internetowych mają na ciebie negatywny, krzywdzący wpływ? Wyślij nam swoją historię, nie upublicznimy jej bez twojej zgody: https://crm.panoptykon.org/algorytmy-traumy-twoja-historiaOdsłuchaj, dodaj do ulubionej aplikacji przez RSS lub obejrzyj na YouTube'ie lub Vimeo.Na skróty:00:01 Wprowadzenie04:53 Skąd Facebook wie, jakie reklamy nam pokazać?08:39 Eksperyment kontrolowania “zainteresowań”17:14 Rola reklamodawcy w sponsorowaniu treści23:14 Reakcja Facebooka29:00 Dyskryminacja w reklamie na Facebooku39:13 Czy Facebook może oddać kontrolę użytkownikom i użytkowniczkom?46:25 Subskrypcja na algorytm52:25 Ciężkie życie naukowcaDo poczytania:Panoptykon: Algorytmy traumy. Sprawdziliśmy, czy możesz kontrolować reklamy na FacebookuFinancial Times: Time to turn off Facebook’s digital fire hose Spider’s Web+: Masz swoje cichutkie, ukryte obawy? Facebook sprytnie je odkryje i podsunie takie reklamy, by zmieniły się w lękiWall Street Journal: Inside TikTok's Algorithm: A WSJ Video InvestigationDiscrimination through Optimization: How Facebook's Ad Delivery Can Lead to Biased Outcomes Propublica: Dozens of Companies Are Using Facebook to Exclude Older Workers From Job AdsTim Hwang: Subprime Attention CrisisPodobają Ci się nasze podcasty? Pomóż nam dalej tworzyć wartościowe treści. Wpłać darowiznę na konto Fundacji Panoptykon i przekaż 1,5% podatku (KRS: 0000327613) Audio file Aleksandra Iwańska Autorka Temat algorytmy Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Podcast O wpływie algorytmów na kampanię wyborczą. Rozmowa z Agatą Kaźmierską i Wojciechem Brzezińskim Wyobraźmy sobie, że partie polityczne nie mają już programów, nie prowadzą spójnej kampanii wyborczej, w której składają publiczne obietnice. 05.10.2023 Dźwięk Artykuł Uśmiech, proszę! Sala obsługi interesantów sopockiego urzędu miasta i niektóre placówki PKO BP – w tych miejscach możecie natknąć się na urządzenia rozpoznające, czy siedzący naprzeciw Was pracownik się uśmiecha i jak często to robi. Co więcej, Wasza – jako klientów – mimika też podlega analizie i podniesione… 28.10.2019 Tekst Artykuł Czy nowy cyfrowy ład jest możliwy? Wyobraźmy sobie nowy, cyfrowy ład. Taki, w którym ludzie nie są przetwarzani, jak cyfrowa biomasa, ale mają prawo głosu i są w stanie decydować o swoich danych. Dostają usługi, które są dopasowane do ich potrzeb, a jednocześnie bezpieczne. Nie wysyłają ich danych na giełdy reklam, nie śledzą bez… 28.10.2019 Tekst