Podcast 09.09.2022 3 min. czytania Dźwięk Image Pewnego dnia Chermaine odebrała list z urzędu skarbowego, w którym żądano od niej zwrotu zasiłków wypłacanych jej przez ostatnie cztery lata na opiekę nad dziećmi. Kwota: 100 tysięcy euro.Dopiero 7 lat później wyszło na jaw, że holenderski fiskus określał ryzyko nadużyć w systemie przy pomocy algorytmu uczenia maszynowego. Oskarżone o wyłudzenie zasiłku rodziny musiały zwracać dziesiątki tysięcy euro i nie dostawały nawet szansy na udowodnienie swojej niewinności.Był to pierwszy głośny przypadek omyłki przy wykorzystywaniu sztucznej inteligencji w Europie. Ale przecież automatyzacja państw i korzystanie z coraz większych baz danych, także na potrzeby administracji publicznej, staje się codziennością. Także w Polsce rząd tworzy wspólny system administrowania takimi bazami: Zintegrowaną Platformę Analityczną.Kto czuwa nad tym, jak nowoczesna administracja korzysta z danych o ludziach? Jak wygląda praca przy projektowaniu algorytmów sztucznej inteligencji? Kto te systemy nadzoruje?Natalia Domagała – ekspertka, która jeszcze do niedawna kierowała zespołem zajmującym się polityką danych i sztucznej inteligencji w Centralnym Urzędzie do spraw Cyfryzacji i Danych w brytyjskiej administracji. Jej zespół stworzył pierwszy oficjalny standard przejrzystości algorytmów. Teraz Natalia pracuje w Ministerstwie Spraw Zagranicznych w Wielkiej Brytanii.Odsłuchaj, dodaj do ulubionej aplikacji przez RSS lub obejrzyj na YouTubie lub Vimeo.Na skróty:00:01 Wprowadzenie03:18 Technologia to jedyna deska ratunku dla kobiet07:13 Etyczne technologie w sektorze publicznym09:45 Gdzie Wielka Brytania używa sztucznej inteligencji?10:58 Dane używane w ochronie zdrowia16:00 Transparentne dane to norma18:44 Standard przejrzystości algorytmów27:26 Algorytmy, które mogą dyskryminować30:23 Jak informować ludzi, że wchodzą w interakcję z AI?37:35 Jak obejść „czarną skrzynkę” sztucznej inteligencji?44:29 ZakończenieDo posłuchania i poczytania:Panoptykon 4.0: Sztuczna inteligencja non-fiction. Rozmowa z Agatą ForyciarzPanoptykon: Nieudany eksperyment z profilowaniem bezrobotnych właśnie przechodzi do historiigov.uk: Standard transparencyjności algorytmówPodobają ci się nasze podcasty? Pomóż nam dalej tworzyć wartościowe treści. Wpłać darowiznę na konto Fundacji Panoptykon i przekaż 1,5% podatku (KRS: 0000327613). Audio file Aleksandra Iwańska Autorka Temat sztuczna inteligencja Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Podcast Odpowiedzialni za AI. Rozmowa z Sebastianem Szymańskim Czym jest sztuczna inteligencja, z jakimi zadaniami radzi sobie lepiej niż my, a w czym nam nie dorównuje? Czy jest czarną skrzynką, czy da się do niej zajrzeć? Kto jest odpowiedzialny za jej decyzje? Co zrobić, żeby nam „nie zaszkodziła?” Rozmawiamy z dr Sebastianem Szymańskim, filozofem,… 20.02.2020 Dźwięk Artykuł Patronujemy International Focus Programme – Law & Technology ELSA Poland Fundacja Panoptykon objęła patronatem tegoroczną edycję organizowanego przez ELSA Poland International Focus Programme – Law & Technology (IFP), poświęconą tematyce sztucznej inteligencji i praw człowieka. Dzięki partnerstwu studenci prawa i administracji przez cały rok przyglądać się będą… 28.07.2020 Tekst Podcast O pracy w przyszłości. Rozmowa z dr hab. Renatą Włoch Do 2030 roku 47% miejsc pracy zostanie zautomatyzowanych. Czy technologia uwolni nas od najbardziej żmudnych zadań? Kto straci, a kto zyska na automatyzacji? Co to jest „sztuczna” sztuczna inteligencja i kto trenuje algorytmy? Jakie kompetencje się nie przeterminują. O przyszłości pracy rozmawiamy… 19.12.2019 Dźwięk