Podcast 13.07.2023 1 min. czytania Dźwięk Image Żeby móc wykonywać swoją pracę, badaczka algorytmów, Joy Buolamwini, musiała zakładać białą maskę. W przeciwnym wypadku algorytm sztucznej inteligencji nie rozpoznawał punktów na jej twarzy. Barierą okazał się czarny kolor skóry Buolamwini, ponieważ baza danych, na której został wytrenowany testowany przez nią algorytm, nie była dość różnorodna. Na tym przypadku widać, na czym polega „algorithmic bias” – po polsku: uprzedzenie albo skrzywienie algorytmu. Debata o tym, kogo najczęściej wykluczają nowe technologie toczy się od dłuższego czasu. W jej wyniku firmy z Doliny Krzemowej otwierają się na osoby reprezentujące mniejszości, aby zmniejszyć ryzyko dyskryminacji zaszytych w swoich usługach. Na topowych uczelniach wykładana jest „etyka sztucznej inteligencji”, a rosnąca popularność narzędzi takich jak Chat GPT czy BARD wymusza bardzo poważną dyskusję o tym, na jakich danych należy oraz na jakich danych wolno trenować kolejne generacje uczących się algorytmów. Czy to wystarczy, by uzdrowić usługi, z których korzystamy lub których działaniu jesteśmy poddawani na co dzień? W ostatnim odcinku podcastu Panoptykon 4.0 przed wakacyjną przerwą Katarzyna Szymielewicz rozmawia z Kubą Piwowarem, socjologiem z Centrum Kulturowych Badań Technologii na Uniwersytecie SWPS, autorem książki „Technologie, które wykluczają. Pomiar, dane, algorytmy”, od 15 lat zawodowo związanym z firmą Google. Odsłuchaj, dodaj do ulubionej aplikacji przez RSS lub obejrzyj na YouTubie. Na skróty: 00:01 Wstęp 01:44 „Technologie, które wykluczają” 06:06 Jak technologie „nie działają”? 10:00 Skrzywione dane 12:25 Zapobieganie dyskryminacji algorytmów 15:02 Regulacja a biznes 23:00 Etyczny design 26:15 Społeczne aspekty nowych technogii 29:53 Zakończenie Do poczytania i posłuchania: Kuba Piwowar: Technologie, które wykluczają. Pomiar, dane, algorytmy Panoptykon: Sztuczna inteligencja non-fiction Działania organizacji w latach 2022–2024 dofinansowane z Funduszy Norweskich w ramach programu Aktywni Obywatele – Fundusz Krajowy. Audio file Aleksandra Iwańska Autorka Temat sztuczna inteligencja algorytmy Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Podcast Jak okiełznać algorytm? Rozmowa z Michałem Kosińskim Czy osobowość da się zmierzyć? Co ma wspólnego kartkówka z geografii z psychometrią? Jakie poglądy polityczne mają wielbiciele szybkich samochodów? Skąd mamy wiedzieć, że algorytm się myli? Czy dzięki/przez technologię będziemy żyć w nowym wspaniałym świecie? Gościem podcastu… 12.09.2019 Dźwięk Podcast Trwa walka o regulację sztucznej inteligencji w UE. Rozmowa z Filipem Konopczyńskim Kamery rozpoznające twarze. Bramki na lotniskach. Drony skanujące las, żeby wykrywać nielegalne wysypiska. I drony skanujące las na granicy, żeby wykrywać ludzi. Mówiące lodówki i Chat GPT. 18.05.2023 Dźwięk Podcast Jak działa sieć społecznościowa bez algorytmów? Rozmowa z Kubą Orlikiem W tym odcinku Wojciech Klicki rozmawia z Kubą Orlikiem, współzałożycielem inicjatywy: „Internet. Czas działać!”. Nazwa organizacji doskonale oddaje bliskie nam podejście: zamiast biadolić, Kuba wyznaje filozofię, że czas zakasać rękawy i działać. W rozmowie pokazuje różne metody na to, by… 20.04.2023 Dźwięk