Podcast 09.03.2023 1 min. czytania Dźwięk Image Kilka lat temu firma Amazon zaliczyła wizerunkową wpadkę, kiedy wyszło na jaw, że testowany przez nich system wspierający rekrutację wyraźnie dyskryminował CV kobiet. Jak zwykle w takich przypadkach okazało się, że zawinił brak refleksji nad danymi, na których uczył się rekrutacyjny algorytm. CV osób zatrudnionych w poprzednich 10 latach pochodziły przeważnie od mężczyzn, więc nowy system również preferował podobne. Branża IT uczy się na błędach i dziś wiodące firmy chwalą się algorytmami, które mają odwrotne zadanie: zmaksymalizować różnorodność. I bardzo dobrze, bo to jedyna droga, żeby zmienić genderowy i rasowy mix ludzi odpowiedzialnych za projektowanie aplikacji i usług, z jakich wszyscy korzystamy. Dlaczego to jest ważne? Bo dzisiejsze rozwiązania technologiczne – od prostych apek na po wyrafinowane systemy oparte na AI – nadal często patrzą na kobiety oczami mężczyzn. Jak przełamać błędne koło stereotypowego myślenia? O tym w rozmowie Katarzyny Szymielewicz z Olgą Kozierowską – prezeską fundacji „Sukces Pisany Szminką”. Odsłuchaj, dodaj do ulubionej aplikacji przez RSS lub obejrzyj na YouTubie. Na skróty: 00:00 Wprowadzenie 03:14 Kobiety adaptują się, by przeżyć 04:42 Zagrożenia Internetu 10:15 Świadomość w sieci 15:37 Sztuczna inteligencja powiela stereotypy 21:17 Odpowiedzialność za technologię 24:23 Zarządzanie empatią 28:47 Kto i co kształtuje kobiety? 33:15 Zakończenie Polecamy: Panoptykon: Sztuczna inteligencja non-fiction Onet: Jak wygląda podział ról w polskiej rodzinie? "Dzisiaj tradycja to niesprawiedliwość" Hans Rosling: Factfulness. Dlaczego świat jest lepszy niż myślimy… Panoptykon 4.0: Sztuczna inteligencja non-fiction. Rozmowa z Agatą Foryciarz Podobają ci się nasze podcasty? Pomóż nam dalej tworzyć wartościowe treści. Wpłać darowiznę na konto Fundacji Panoptykon i przekaż 1,5% podatku (KRS: 0000327613). Działania organizacji w latach 2022–2024 dofinansowane z Funduszy Norweskich w ramach programu Aktywni Obywatele – Fundusz Krajowy. Audio file Aleksandra Iwańska Autorka Temat algorytmy dyskryminacja Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Czy nowy cyfrowy ład jest możliwy? Wyobraźmy sobie nowy, cyfrowy ład. Taki, w którym ludzie nie są przetwarzani, jak cyfrowa biomasa, ale mają prawo głosu i są w stanie decydować o swoich danych. Dostają usługi, które są dopasowane do ich potrzeb, a jednocześnie bezpieczne. Nie wysyłają ich danych na giełdy reklam, nie śledzą bez… 28.10.2019 Tekst Podcast Jak okiełznać algorytm? Rozmowa z Michałem Kosińskim Czy osobowość da się zmierzyć? Co ma wspólnego kartkówka z geografii z psychometrią? Jakie poglądy polityczne mają wielbiciele szybkich samochodów? Skąd mamy wiedzieć, że algorytm się myli? Czy dzięki/przez technologię będziemy żyć w nowym wspaniałym świecie? Gościem podcastu… 12.09.2019 Dźwięk Artykuł Katarzyna Szymielewicz: Rynek nie poradzi sobie z cyfrowymi gigantami. Do gry musi wejść regulator Mierzymy się z upadkiem niezależnych mediów, z uzależnieniem ludzi od informacyjnych bodźców, z zanikiem krytycznego myślenia i coraz lepiej kamuflowaną manipulacją, która zniekształca debatę publiczną w kluczowych dla demokracji momentach. Wobec tych zagrożeń musimy odejść od liberalnego założenia… 15.10.2019 Tekst