Podcast 09.03.2023 1 min. czytania Dźwięk Image Kilka lat temu firma Amazon zaliczyła wizerunkową wpadkę, kiedy wyszło na jaw, że testowany przez nich system wspierający rekrutację wyraźnie dyskryminował CV kobiet. Jak zwykle w takich przypadkach okazało się, że zawinił brak refleksji nad danymi, na których uczył się rekrutacyjny algorytm. CV osób zatrudnionych w poprzednich 10 latach pochodziły przeważnie od mężczyzn, więc nowy system również preferował podobne. Branża IT uczy się na błędach i dziś wiodące firmy chwalą się algorytmami, które mają odwrotne zadanie: zmaksymalizować różnorodność. I bardzo dobrze, bo to jedyna droga, żeby zmienić genderowy i rasowy mix ludzi odpowiedzialnych za projektowanie aplikacji i usług, z jakich wszyscy korzystamy. Dlaczego to jest ważne? Bo dzisiejsze rozwiązania technologiczne – od prostych apek na po wyrafinowane systemy oparte na AI – nadal często patrzą na kobiety oczami mężczyzn. Jak przełamać błędne koło stereotypowego myślenia? O tym w rozmowie Katarzyny Szymielewicz z Olgą Kozierowską – prezeską fundacji „Sukces Pisany Szminką”. Odsłuchaj, dodaj do ulubionej aplikacji przez RSS lub obejrzyj na YouTubie. Na skróty: 00:00 Wprowadzenie 03:14 Kobiety adaptują się, by przeżyć 04:42 Zagrożenia Internetu 10:15 Świadomość w sieci 15:37 Sztuczna inteligencja powiela stereotypy 21:17 Odpowiedzialność za technologię 24:23 Zarządzanie empatią 28:47 Kto i co kształtuje kobiety? 33:15 Zakończenie Polecamy: Panoptykon: Sztuczna inteligencja non-fiction Onet: Jak wygląda podział ról w polskiej rodzinie? "Dzisiaj tradycja to niesprawiedliwość" Hans Rosling: Factfulness. Dlaczego świat jest lepszy niż myślimy… Panoptykon 4.0: Sztuczna inteligencja non-fiction. Rozmowa z Agatą Foryciarz Podobają ci się nasze podcasty? Pomóż nam dalej tworzyć wartościowe treści. Wpłać darowiznę na konto Fundacji Panoptykon i przekaż 1,5% podatku (KRS: 0000327613). Działania organizacji w latach 2022–2024 dofinansowane z Funduszy Norweskich w ramach programu Aktywni Obywatele – Fundusz Krajowy. Audio file Aleksandra Iwańska Autorka Temat algorytmy dyskryminacja Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Unia szykuje przepisy dotyczące AI: 5 problemów Przepisy wspierające innowacje i chroniące przed nadużyciami – tak miała wyglądać unijna regulacja sztucznej inteligencji. Jednak propozycja przedstawiona przez Komisję Europejską 21 kwietnia nie odpowiada na najważniejsze wyzwania związane z rozwojem AI: nie stawia granic dla najbardziej… 30.04.2021 Tekst Artykuł Algorytmiczny eksperyment Facebooka Od 11 stycznia strumień aktualności na Facebooku (podobno) działa na nowych zasadach: treści, które zostały wrzucone przez naszych znajomych albo wywołały ich komentarze mają większą widoczność niż treści generowane przez media i inne strony (także organizacji i ruchów społecznych). Przez… 25.01.2018 Tekst Podcast Zdalnie, ale pod nadzorem. Rozmowa z dr. Liwiuszem Laską Czy dom to nowy zakład pracy, a pracodawca może podglądać swoich pracowników przez kamerki? Czy dzięki technologii pracodawcy łatwiej inwigilować związki zawodowe? Jakie zagrożenia niesie ze sobą platformizacja pracy? I czy prawo nadąża za zmianami? Z dr. Liwiuszem Laską, prawnikiem specjalizującym… 24.06.2021 Dźwięk