Podcast 07.10.2021 2 min. czytania Dźwięk Image Sposób, w jaki wielkie platformy dobierają reklamy do użytkowników, z pozoru jest bardzo prosty: reklamodawca zaznacza, do kogo chce targetować komunikat, a platforma wyświetla treści w najbardziej zaangażowanych grupach. Jednak pomiędzy zleceniem reklamy, a zainteresowaniem produktem zawsze pojawia się człowiek, który interesuje się treściami. Wszystko idzie dobrze, jeśli tylko człowiek dostaje dopasowane do siebie treści, ale co się dzieje, kiedy reklamy zaczynają niepokoić, denerwować, a nawet podkręcać lęki i problemy psychiczne? O badaniu algorytmów traumy rozmawiamy z dr. Piotrem Sapieżyńskim - badaczem z Northeastern University w Bostonie, zajmującym się audytowaniem algorytmów, weryfikowaniem i mierzeniem potencjalnej szkody, jakie komercyjne produkty oparte na sztucznej inteligencji mogą wyrządzić zarówno na skalę społeczną, jak i pojedynczym użytkownikom. Czy podobna sytuacja do tej, opisanej w eksperymencie zdarzyła się również tobie? Czy treści sponsorowane na Facebooku lub innych platformach internetowych mają na ciebie negatywny, krzywdzący wpływ? Wyślij nam swoją historię, nie upublicznimy jej bez twojej zgody: https://crm.panoptykon.org/algorytmy-traumy-twoja-historia Odsłuchaj, dodaj do ulubionej aplikacji przez RSS lub obejrzyj na YouTube'ie lub Vimeo. Na skróty: 00:01 Wprowadzenie 04:53 Skąd Facebook wie, jakie reklamy nam pokazać? 08:39 Eksperyment kontrolowania “zainteresowań” 17:14 Rola reklamodawcy w sponsorowaniu treści 23:14 Reakcja Facebooka 29:00 Dyskryminacja w reklamie na Facebooku 39:13 Czy Facebook może oddać kontrolę użytkownikom i użytkowniczkom? 46:25 Subskrypcja na algorytm 52:25 Ciężkie życie naukowca Do poczytania: Panoptykon: Algorytmy traumy. Sprawdziliśmy, czy możesz kontrolować reklamy na Facebooku Financial Times: Time to turn off Facebook’s digital fire hose Spider’s Web+: Masz swoje cichutkie, ukryte obawy? Facebook sprytnie je odkryje i podsunie takie reklamy, by zmieniły się w lęki Wall Street Journal: Inside TikTok's Algorithm: A WSJ Video Investigation Discrimination through Optimization: How Facebook's Ad Delivery Can Lead to Biased Outcomes Propublica: Dozens of Companies Are Using Facebook to Exclude Older Workers From Job Ads Tim Hwang: Subprime Attention Crisis Podobają Ci się nasze podcasty? Pomóż nam dalej tworzyć wartościowe treści. Wpłać darowiznę na konto Fundacji Panoptykon i przekaż 1% podatku (KRS: 0000327613) Audio file Aleksandra Iwańska Autorka Temat algorytmy Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Administratorem twoich danych jest Fundacja Panoptykon. Więcej informacji o tym, jak przetwarzamy dane osób subskrybujących newsletter, znajdziesz w naszej Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Zobacz także Artykuł Martwisz się o zdrowie? Facebook nie pozwoli ci o tym zapomnieć Nie mów Facebookowi, jakich treści nie chcesz oglądać – to wiele nie zmieni. 07.12.2023 Tekst Artykuł Unia szykuje przepisy dotyczące AI: 5 problemów Przepisy wspierające innowacje i chroniące przed nadużyciami – tak miała wyglądać unijna regulacja sztucznej inteligencji. Jednak propozycja przedstawiona przez Komisję Europejską 21 kwietnia nie odpowiada na najważniejsze wyzwania związane z rozwojem AI: nie stawia granic dla najbardziej… 30.04.2021 Tekst Podcast Kiedy twarz staje się kluczem. Rozmowa z dr Magdaleną Tomaszewską-Michalak Na szczeblu europejskim trwa właśnie dyskusja o wprowadzeniu zakazu masowego rozpoznawania twarzy. Jak działa technologia rozpoznawania twarzy? Gdzie jest używana? W jakim celu sięga po nią policja i z jakimi kosztami społecznymi się wiąże? Co możemy zyskać, a co stracić, jeżeli w porę nie… 18.06.2020 Dźwięk