Podcast 13.07.2023 1 min. czytania Dźwięk Image Żeby móc wykonywać swoją pracę, badaczka algorytmów, Joy Buolamwini, musiała zakładać białą maskę. W przeciwnym wypadku algorytm sztucznej inteligencji nie rozpoznawał punktów na jej twarzy. Barierą okazał się czarny kolor skóry Buolamwini, ponieważ baza danych, na której został wytrenowany testowany przez nią algorytm, nie była dość różnorodna. Na tym przypadku widać, na czym polega „algorithmic bias” – po polsku: uprzedzenie albo skrzywienie algorytmu. Debata o tym, kogo najczęściej wykluczają nowe technologie toczy się od dłuższego czasu. W jej wyniku firmy z Doliny Krzemowej otwierają się na osoby reprezentujące mniejszości, aby zmniejszyć ryzyko dyskryminacji zaszytych w swoich usługach. Na topowych uczelniach wykładana jest „etyka sztucznej inteligencji”, a rosnąca popularność narzędzi takich jak Chat GPT czy BARD wymusza bardzo poważną dyskusję o tym, na jakich danych należy oraz na jakich danych wolno trenować kolejne generacje uczących się algorytmów. Czy to wystarczy, by uzdrowić usługi, z których korzystamy lub których działaniu jesteśmy poddawani na co dzień? W ostatnim odcinku podcastu Panoptykon 4.0 przed wakacyjną przerwą Katarzyna Szymielewicz rozmawia z Kubą Piwowarem, socjologiem z Centrum Kulturowych Badań Technologii na Uniwersytecie SWPS, autorem książki „Technologie, które wykluczają. Pomiar, dane, algorytmy”, od 15 lat zawodowo związanym z firmą Google. Odsłuchaj, dodaj do ulubionej aplikacji przez RSS lub obejrzyj na YouTubie. Na skróty: 00:01 Wstęp 01:44 „Technologie, które wykluczają” 06:06 Jak technologie „nie działają”? 10:00 Skrzywione dane 12:25 Zapobieganie dyskryminacji algorytmów 15:02 Regulacja a biznes 23:00 Etyczny design 26:15 Społeczne aspekty nowych technogii 29:53 Zakończenie Do poczytania i posłuchania: Kuba Piwowar: Technologie, które wykluczają. Pomiar, dane, algorytmy Panoptykon: Sztuczna inteligencja non-fiction Działania organizacji w latach 2022–2024 dofinansowane z Funduszy Norweskich w ramach programu Aktywni Obywatele – Fundusz Krajowy. Audio file Aleksandra Iwańska Autorka Temat sztuczna inteligencja algorytmy Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Podcast Trwa walka o regulację sztucznej inteligencji w UE. Rozmowa z Filipem Konopczyńskim Kamery rozpoznające twarze. Bramki na lotniskach. Drony skanujące las, żeby wykrywać nielegalne wysypiska. I drony skanujące las na granicy, żeby wykrywać ludzi. Mówiące lodówki i Chat GPT. 18.05.2023 Dźwięk Artykuł Zamiast chwilowych cyfrowych sankcji – systemowe rozwiązania Rosyjska wojna propagandowa zaczęła się na długo przed militarną agresją 24 lutego. Nacjonalistyczna i ksenofobiczna narracja ze strony rosyjskich władz i kontrolowanych przez nie mediów jest z nami przynajmniej od 2014 r. Jednym ze skuteczniejszych narzędzi rozsiewania dezinformacji, której… 11.03.2022 Tekst Artykuł Sztuczna inteligencja na granicach Unia Europejska podzieli osoby wjeżdżające na jej teren z pomocą sztucznej inteligencji. Nowa regulacja AI ma dopuszczać stosowanie systemów wysokiego ryzyka w zarządzaniu migracją, azylem i kontrolą granic. 20.06.2023 Tekst