Podcast 07.10.2021 3 min. czytania Dźwięk Image Sposób, w jaki wielkie platformy dobierają reklamy do użytkowników, z pozoru jest bardzo prosty: reklamodawca zaznacza, do kogo chce targetować komunikat, a platforma wyświetla treści w najbardziej zaangażowanych grupach. Jednak pomiędzy zleceniem reklamy, a zainteresowaniem produktem zawsze pojawia się człowiek, który interesuje się treściami. Wszystko idzie dobrze, jeśli tylko człowiek dostaje dopasowane do siebie treści, ale co się dzieje, kiedy reklamy zaczynają niepokoić, denerwować, a nawet podkręcać lęki i problemy psychiczne?O badaniu algorytmów traumy rozmawiamy z dr. Piotrem Sapieżyńskim - badaczem z Northeastern University w Bostonie, zajmującym się audytowaniem algorytmów, weryfikowaniem i mierzeniem potencjalnej szkody, jakie komercyjne produkty oparte na sztucznej inteligencji mogą wyrządzić zarówno na skalę społeczną, jak i pojedynczym użytkownikom.Czy podobna sytuacja do tej, opisanej w eksperymencie zdarzyła się również tobie? Czy treści sponsorowane na Facebooku lub innych platformach internetowych mają na ciebie negatywny, krzywdzący wpływ? Wyślij nam swoją historię, nie upublicznimy jej bez twojej zgody: https://crm.panoptykon.org/algorytmy-traumy-twoja-historiaOdsłuchaj, dodaj do ulubionej aplikacji przez RSS lub obejrzyj na YouTube'ie lub Vimeo.Na skróty:00:01 Wprowadzenie04:53 Skąd Facebook wie, jakie reklamy nam pokazać?08:39 Eksperyment kontrolowania “zainteresowań”17:14 Rola reklamodawcy w sponsorowaniu treści23:14 Reakcja Facebooka29:00 Dyskryminacja w reklamie na Facebooku39:13 Czy Facebook może oddać kontrolę użytkownikom i użytkowniczkom?46:25 Subskrypcja na algorytm52:25 Ciężkie życie naukowcaDo poczytania:Panoptykon: Algorytmy traumy. Sprawdziliśmy, czy możesz kontrolować reklamy na FacebookuFinancial Times: Time to turn off Facebook’s digital fire hose Spider’s Web+: Masz swoje cichutkie, ukryte obawy? Facebook sprytnie je odkryje i podsunie takie reklamy, by zmieniły się w lękiWall Street Journal: Inside TikTok's Algorithm: A WSJ Video InvestigationDiscrimination through Optimization: How Facebook's Ad Delivery Can Lead to Biased Outcomes Propublica: Dozens of Companies Are Using Facebook to Exclude Older Workers From Job AdsTim Hwang: Subprime Attention CrisisPodobają Ci się nasze podcasty? Pomóż nam dalej tworzyć wartościowe treści. Wpłać darowiznę na konto Fundacji Panoptykon i przekaż 1,5% podatku (KRS: 0000327613) Audio file Aleksandra Iwańska Autorka Temat algorytmy Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Sztuczna inteligencja pod kontrolą. Europa szykuje przepisy Bez względu na to, czy kibicujemy rozwojowi sztucznej inteligencji i jej obecności „w każdej lodówce”, czy się tego scenariusza obawiamy, jedno możemy przyjąć za pewnik: ta dziedzina wiedzy technicznej, o szerokim zastosowaniu, dopiero się rozkręca i niejednym nas jeszcze zaskoczy. Czekają nas nie… 29.06.2020 Tekst Podcast Od prawie 10 lat jesteśmy placem zabaw dla dezinformacji. Rozmowa z Michałem Fedorowiczem „Jeśli nie sprzeciwimy się akcesji Ukrainy do Unii Europejskiej, zrujnujemy rolników!”. „Ukraińskie kurczaki to nieuczciwa konkurencja”. 06.06.2024 Dźwięk Artykuł Pomoc społeczna na łasce algorytmów [wywiad] Dlaczego państwa tak chętnie próbują oddać system pomocy społecznej w ręce algorytmów? Zagadnienie tłumaczy kanadyjski socjolog i badacz wykorzystania algorytmów przez administrację publiczną dr Mike Zajko. 04.04.2024 Tekst