Podcast 13.07.2023 1 min. czytania Dźwięk Image Żeby móc wykonywać swoją pracę, badaczka algorytmów, Joy Buolamwini, musiała zakładać białą maskę. W przeciwnym wypadku algorytm sztucznej inteligencji nie rozpoznawał punktów na jej twarzy. Barierą okazał się czarny kolor skóry Buolamwini, ponieważ baza danych, na której został wytrenowany testowany przez nią algorytm, nie była dość różnorodna. Na tym przypadku widać, na czym polega „algorithmic bias” – po polsku: uprzedzenie albo skrzywienie algorytmu. Debata o tym, kogo najczęściej wykluczają nowe technologie toczy się od dłuższego czasu. W jej wyniku firmy z Doliny Krzemowej otwierają się na osoby reprezentujące mniejszości, aby zmniejszyć ryzyko dyskryminacji zaszytych w swoich usługach. Na topowych uczelniach wykładana jest „etyka sztucznej inteligencji”, a rosnąca popularność narzędzi takich jak Chat GPT czy BARD wymusza bardzo poważną dyskusję o tym, na jakich danych należy oraz na jakich danych wolno trenować kolejne generacje uczących się algorytmów. Czy to wystarczy, by uzdrowić usługi, z których korzystamy lub których działaniu jesteśmy poddawani na co dzień? W ostatnim odcinku podcastu Panoptykon 4.0 przed wakacyjną przerwą Katarzyna Szymielewicz rozmawia z Kubą Piwowarem, socjologiem z Centrum Kulturowych Badań Technologii na Uniwersytecie SWPS, autorem książki „Technologie, które wykluczają. Pomiar, dane, algorytmy”, od 15 lat zawodowo związanym z firmą Google. Odsłuchaj, dodaj do ulubionej aplikacji przez RSS lub obejrzyj na YouTubie. Na skróty: 00:01 Wstęp 01:44 „Technologie, które wykluczają” 06:06 Jak technologie „nie działają”? 10:00 Skrzywione dane 12:25 Zapobieganie dyskryminacji algorytmów 15:02 Regulacja a biznes 23:00 Etyczny design 26:15 Społeczne aspekty nowych technogii 29:53 Zakończenie Do poczytania i posłuchania: Kuba Piwowar: Technologie, które wykluczają. Pomiar, dane, algorytmy Panoptykon: Sztuczna inteligencja non-fiction Działania organizacji w latach 2022–2024 dofinansowane z Funduszy Norweskich w ramach programu Aktywni Obywatele – Fundusz Krajowy. Audio file Aleksandra Iwańska Autorka Temat sztuczna inteligencja algorytmy Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Podcast Algorytmy Traumy. Jak Facebook karmi się twoim lękiem Zapraszamy na odcinek specjalny, połączony z premierą badania Fundacji Panoptykon „Algorytmy Traumy 2” we współpracy z Piotrem Sapieżyńskim z Northeastern University. 07.12.2023 Dźwięk Artykuł Dzień Kobiet – w Panoptykonie dzień jak co dzień Przymus badań ginekologicznych, rejestr ciąż, dyskryminujące algorytmy uczenia maszynowego, targetowanie reklam politycznych na kobiety w ciąży, aktywistki zatrzymywane przez służby, życie intymne kobiet pod obserwacją firm z branży reklamowej – działania związane z nadzorem nad kobietami to w… 08.03.2023 Tekst Artykuł Koniec negocjacji aktu ws. sztucznej inteligencji. Nie jest dobrze, ale mogło być gorzej Za nami ostatni odcinek negocjacji trójstronnych w sprawie unijnego rozporządzenia o sztucznej inteligencji. 12.12.2023 Tekst