Podcast 09.03.2023 1 min. czytania Dźwięk Image Kilka lat temu firma Amazon zaliczyła wizerunkową wpadkę, kiedy wyszło na jaw, że testowany przez nich system wspierający rekrutację wyraźnie dyskryminował CV kobiet. Jak zwykle w takich przypadkach okazało się, że zawinił brak refleksji nad danymi, na których uczył się rekrutacyjny algorytm. CV osób zatrudnionych w poprzednich 10 latach pochodziły przeważnie od mężczyzn, więc nowy system również preferował podobne. Branża IT uczy się na błędach i dziś wiodące firmy chwalą się algorytmami, które mają odwrotne zadanie: zmaksymalizować różnorodność. I bardzo dobrze, bo to jedyna droga, żeby zmienić genderowy i rasowy mix ludzi odpowiedzialnych za projektowanie aplikacji i usług, z jakich wszyscy korzystamy. Dlaczego to jest ważne? Bo dzisiejsze rozwiązania technologiczne – od prostych apek na po wyrafinowane systemy oparte na AI – nadal często patrzą na kobiety oczami mężczyzn. Jak przełamać błędne koło stereotypowego myślenia? O tym w rozmowie Katarzyny Szymielewicz z Olgą Kozierowską – prezeską fundacji „Sukces Pisany Szminką”. Odsłuchaj, dodaj do ulubionej aplikacji przez RSS lub obejrzyj na YouTubie. Na skróty: 00:00 Wprowadzenie 03:14 Kobiety adaptują się, by przeżyć 04:42 Zagrożenia Internetu 10:15 Świadomość w sieci 15:37 Sztuczna inteligencja powiela stereotypy 21:17 Odpowiedzialność za technologię 24:23 Zarządzanie empatią 28:47 Kto i co kształtuje kobiety? 33:15 Zakończenie Polecamy: Panoptykon: Sztuczna inteligencja non-fiction Onet: Jak wygląda podział ról w polskiej rodzinie? "Dzisiaj tradycja to niesprawiedliwość" Hans Rosling: Factfulness. Dlaczego świat jest lepszy niż myślimy… Panoptykon 4.0: Sztuczna inteligencja non-fiction. Rozmowa z Agatą Foryciarz Podobają ci się nasze podcasty? Pomóż nam dalej tworzyć wartościowe treści. Wpłać darowiznę na konto Fundacji Panoptykon i przekaż 1,5% podatku (KRS: 0000327613). Działania organizacji w latach 2022–2024 dofinansowane z Funduszy Norweskich w ramach programu Aktywni Obywatele – Fundusz Krajowy. Audio file Aleksandra Iwańska Autorka Temat algorytmy dyskryminacja Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Meta chciała pozwolić na grożenie śmiercią, ale nie chce zmieniać swoich szkodliwych algorytmów Firma Meta, właściciel m.in. Facebooka i Instagrama, w zeszłym tygodniu poinformowała swoich moderatorów, że w kilku krajach (m.in. w Polsce) mają nie usuwać nawoływania do śmierci rosyjskich żołnierzy oraz Władimira Putina i Aleksandra Łukaszenki. To nie był dobry pomysł (zresztą Meta po chwili… 18.03.2022 Tekst Artykuł Dyskryminacja w świecie rządzonym przez dane Technologie oparte na danych nie są neutralne. Decyzje o zbieraniu, analizowaniu i przetwarzaniu konkretnych kategorii informacji są dyktowane czynnikami społecznymi, ekonomicznymi i politycznymi. Takie operacje z wykorzystaniem danych osobowych mogą nie tylko naruszać prywatność, ale też prowadzić… 13.07.2018 Tekst Artykuł Dzień Kobiet – w Panoptykonie dzień jak co dzień Przymus badań ginekologicznych, rejestr ciąż, dyskryminujące algorytmy uczenia maszynowego, targetowanie reklam politycznych na kobiety w ciąży, aktywistki zatrzymywane przez służby, życie intymne kobiet pod obserwacją firm z branży reklamowej – działania związane z nadzorem nad kobietami to w… 08.03.2023 Tekst