Podcast 09.03.2023 1 min. czytania Dźwięk Image Kilka lat temu firma Amazon zaliczyła wizerunkową wpadkę, kiedy wyszło na jaw, że testowany przez nich system wspierający rekrutację wyraźnie dyskryminował CV kobiet. Jak zwykle w takich przypadkach okazało się, że zawinił brak refleksji nad danymi, na których uczył się rekrutacyjny algorytm. CV osób zatrudnionych w poprzednich 10 latach pochodziły przeważnie od mężczyzn, więc nowy system również preferował podobne. Branża IT uczy się na błędach i dziś wiodące firmy chwalą się algorytmami, które mają odwrotne zadanie: zmaksymalizować różnorodność. I bardzo dobrze, bo to jedyna droga, żeby zmienić genderowy i rasowy mix ludzi odpowiedzialnych za projektowanie aplikacji i usług, z jakich wszyscy korzystamy. Dlaczego to jest ważne? Bo dzisiejsze rozwiązania technologiczne – od prostych apek na po wyrafinowane systemy oparte na AI – nadal często patrzą na kobiety oczami mężczyzn. Jak przełamać błędne koło stereotypowego myślenia? O tym w rozmowie Katarzyny Szymielewicz z Olgą Kozierowską – prezeską fundacji „Sukces Pisany Szminką”. Odsłuchaj, dodaj do ulubionej aplikacji przez RSS lub obejrzyj na YouTubie. Na skróty: 00:00 Wprowadzenie 03:14 Kobiety adaptują się, by przeżyć 04:42 Zagrożenia Internetu 10:15 Świadomość w sieci 15:37 Sztuczna inteligencja powiela stereotypy 21:17 Odpowiedzialność za technologię 24:23 Zarządzanie empatią 28:47 Kto i co kształtuje kobiety? 33:15 Zakończenie Polecamy: Panoptykon: Sztuczna inteligencja non-fiction Onet: Jak wygląda podział ról w polskiej rodzinie? "Dzisiaj tradycja to niesprawiedliwość" Hans Rosling: Factfulness. Dlaczego świat jest lepszy niż myślimy… Panoptykon 4.0: Sztuczna inteligencja non-fiction. Rozmowa z Agatą Foryciarz Podobają ci się nasze podcasty? Pomóż nam dalej tworzyć wartościowe treści. Wpłać darowiznę na konto Fundacji Panoptykon i przekaż 1,5% podatku (KRS: 0000327613). Działania organizacji w latach 2022–2024 dofinansowane z Funduszy Norweskich w ramach programu Aktywni Obywatele – Fundusz Krajowy. Audio file Aleksandra Iwańska Autorka Temat algorytmy dyskryminacja Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Podcast Jak okiełznać algorytm? Rozmowa z Michałem Kosińskim Czy osobowość da się zmierzyć? Co ma wspólnego kartkówka z geografii z psychometrią? Jakie poglądy polityczne mają wielbiciele szybkich samochodów? Skąd mamy wiedzieć, że algorytm się myli? Czy dzięki/przez technologię będziemy żyć w nowym wspaniałym świecie? Gościem podcastu… 12.09.2019 Dźwięk Podcast Jak okiełznać algorytm? Rozmowa z Michałem Kosińskim Czy osobowość da się zmierzyć? Co ma wspólnego kartkówka z geografii z psychometrią? Jakie poglądy polityczne mają wielbiciele szybkich samochodów? Skąd mamy wiedzieć, że algorytm się myli? Czy dzięki/przez technologię będziemy żyć w nowym wspaniałym świecie? Gościem podcastu… 12.09.2019 Dźwięk Artykuł Technologia bez „docelowego odbiorcy” [recenzja] Czy da się zebrać dane, które są pozbawione kontekstu i zebrane w sposób obiektywny? Kim jest „przeciętny użytkownik”? Jeśli interesujesz się zagadnieniem wykluczania przez nową technologię, to na pewno zainteresuje cię praca Kuby Piwowara. 20.10.2023 Tekst