Podcast 09.03.2023 1 min. czytania Dźwięk Image Kilka lat temu firma Amazon zaliczyła wizerunkową wpadkę, kiedy wyszło na jaw, że testowany przez nich system wspierający rekrutację wyraźnie dyskryminował CV kobiet. Jak zwykle w takich przypadkach okazało się, że zawinił brak refleksji nad danymi, na których uczył się rekrutacyjny algorytm. CV osób zatrudnionych w poprzednich 10 latach pochodziły przeważnie od mężczyzn, więc nowy system również preferował podobne. Branża IT uczy się na błędach i dziś wiodące firmy chwalą się algorytmami, które mają odwrotne zadanie: zmaksymalizować różnorodność. I bardzo dobrze, bo to jedyna droga, żeby zmienić genderowy i rasowy mix ludzi odpowiedzialnych za projektowanie aplikacji i usług, z jakich wszyscy korzystamy. Dlaczego to jest ważne? Bo dzisiejsze rozwiązania technologiczne – od prostych apek na po wyrafinowane systemy oparte na AI – nadal często patrzą na kobiety oczami mężczyzn. Jak przełamać błędne koło stereotypowego myślenia? O tym w rozmowie Katarzyny Szymielewicz z Olgą Kozierowską – prezeską fundacji „Sukces Pisany Szminką”. Odsłuchaj, dodaj do ulubionej aplikacji przez RSS lub obejrzyj na YouTubie. Na skróty: 00:00 Wprowadzenie 03:14 Kobiety adaptują się, by przeżyć 04:42 Zagrożenia Internetu 10:15 Świadomość w sieci 15:37 Sztuczna inteligencja powiela stereotypy 21:17 Odpowiedzialność za technologię 24:23 Zarządzanie empatią 28:47 Kto i co kształtuje kobiety? 33:15 Zakończenie Polecamy: Panoptykon: Sztuczna inteligencja non-fiction Onet: Jak wygląda podział ról w polskiej rodzinie? "Dzisiaj tradycja to niesprawiedliwość" Hans Rosling: Factfulness. Dlaczego świat jest lepszy niż myślimy… Panoptykon 4.0: Sztuczna inteligencja non-fiction. Rozmowa z Agatą Foryciarz Podobają ci się nasze podcasty? Pomóż nam dalej tworzyć wartościowe treści. Wpłać darowiznę na konto Fundacji Panoptykon i przekaż 1,5% podatku (KRS: 0000327613). Działania organizacji w latach 2022–2024 dofinansowane z Funduszy Norweskich w ramach programu Aktywni Obywatele – Fundusz Krajowy. Audio file Aleksandra Iwańska Autorka Temat algorytmy dyskryminacja Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Raport Algorytmy traumy. Sprawdziliśmy, czy możesz kontrolować reklamy na Facebooku Gdy dzieci pójdą do szkoły, pandemia się rozkręci – scroll – SPONSOROWANE Najlepsze kursy programowania w mieście! – scroll – Z OSTATNIEJ CHWILI: Stan wyjątkowy na granicy – scroll – SPONSOROWANE Śmiertelna choroba niszczy życie Stasia! Liczy się każdy dzień! – scroll – Aśce urodziło się dziecko –… 28.09.2021 Tekst Artykuł Zamiast chwilowych cyfrowych sankcji – systemowe rozwiązania Rosyjska wojna propagandowa zaczęła się na długo przed militarną agresją 24 lutego. Nacjonalistyczna i ksenofobiczna narracja ze strony rosyjskich władz i kontrolowanych przez nie mediów jest z nami przynajmniej od 2014 r. Jednym ze skuteczniejszych narzędzi rozsiewania dezinformacji, której… 11.03.2022 Tekst Podcast Jak działa reklama w Internecie? Rozmowa z Maciejem Zawadzińskim Czy to my kupujemy w Internecie, czy nas kupują? Kto i z kim handluje naszymi danymi? Czy powinniśmy się tego obawiać? Jak zapytać, żeby dostać odpowiedź kto i co o nas wie? Zapraszamy w podróż po zapleczu Internetu w towarzystwie Macieja Zawadzińskiego, prezesa i współzałożyciela software house’u… 07.11.2018 Dźwięk