Podcast 13.07.2023 1 min. czytania Dźwięk Image Żeby móc wykonywać swoją pracę, badaczka algorytmów, Joy Buolamwini, musiała zakładać białą maskę. W przeciwnym wypadku algorytm sztucznej inteligencji nie rozpoznawał punktów na jej twarzy. Barierą okazał się czarny kolor skóry Buolamwini, ponieważ baza danych, na której został wytrenowany testowany przez nią algorytm, nie była dość różnorodna. Na tym przypadku widać, na czym polega „algorithmic bias” – po polsku: uprzedzenie albo skrzywienie algorytmu. Debata o tym, kogo najczęściej wykluczają nowe technologie toczy się od dłuższego czasu. W jej wyniku firmy z Doliny Krzemowej otwierają się na osoby reprezentujące mniejszości, aby zmniejszyć ryzyko dyskryminacji zaszytych w swoich usługach. Na topowych uczelniach wykładana jest „etyka sztucznej inteligencji”, a rosnąca popularność narzędzi takich jak Chat GPT czy BARD wymusza bardzo poważną dyskusję o tym, na jakich danych należy oraz na jakich danych wolno trenować kolejne generacje uczących się algorytmów. Czy to wystarczy, by uzdrowić usługi, z których korzystamy lub których działaniu jesteśmy poddawani na co dzień? W ostatnim odcinku podcastu Panoptykon 4.0 przed wakacyjną przerwą Katarzyna Szymielewicz rozmawia z Kubą Piwowarem, socjologiem z Centrum Kulturowych Badań Technologii na Uniwersytecie SWPS, autorem książki „Technologie, które wykluczają. Pomiar, dane, algorytmy”, od 15 lat zawodowo związanym z firmą Google. Odsłuchaj, dodaj do ulubionej aplikacji przez RSS lub obejrzyj na YouTubie. Na skróty: 00:01 Wstęp 01:44 „Technologie, które wykluczają” 06:06 Jak technologie „nie działają”? 10:00 Skrzywione dane 12:25 Zapobieganie dyskryminacji algorytmów 15:02 Regulacja a biznes 23:00 Etyczny design 26:15 Społeczne aspekty nowych technogii 29:53 Zakończenie Do poczytania i posłuchania: Kuba Piwowar: Technologie, które wykluczają. Pomiar, dane, algorytmy Panoptykon: Sztuczna inteligencja non-fiction Działania organizacji w latach 2022–2024 dofinansowane z Funduszy Norweskich w ramach programu Aktywni Obywatele – Fundusz Krajowy. Audio file Aleksandra Iwańska Autorka Temat sztuczna inteligencja algorytmy Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Nauczka Ubera. Za korzystaniem z AI musi iść odpowiedzialność Człowiek nie sprawdzi się w roli nadzorcy sztucznej inteligencji, jeśli ma przejmować stery wyłącznie w sytuacjach awaryjnych. 09.11.2020 Tekst Podcast Mniej papierowych dokumentów, bazy danych, algorytmy. O cyfryzacji ZUS-u mówi prof. Gertruda Uścińska Kto w państwie powinien mieć dostęp do historii medycznej? Na przykład, by sprawdzić, czy pacjent choruje przewlekle i czy leczył się w szpitalu. 11.04.2024 Dźwięk Podcast AI Act dla zwykłego człowieka. Rozmowa z dr Gabrielą Bar W marcu 2024 r. Parlament Europejski zagłosował nad aktem o sztucznej inteligencji. Co prawda trwa jeszcze uzgadnianie wersji językowych, ale można się spodziewać, że kolejne prace i zatwierdzenie tekstu będą już tylko formalnością. 28.03.2024 Dźwięk