Podcast 09.09.2022 3 min. czytania Dźwięk Image Pewnego dnia Chermaine odebrała list z urzędu skarbowego, w którym żądano od niej zwrotu zasiłków wypłacanych jej przez ostatnie cztery lata na opiekę nad dziećmi. Kwota: 100 tysięcy euro.Dopiero 7 lat później wyszło na jaw, że holenderski fiskus określał ryzyko nadużyć w systemie przy pomocy algorytmu uczenia maszynowego. Oskarżone o wyłudzenie zasiłku rodziny musiały zwracać dziesiątki tysięcy euro i nie dostawały nawet szansy na udowodnienie swojej niewinności.Był to pierwszy głośny przypadek omyłki przy wykorzystywaniu sztucznej inteligencji w Europie. Ale przecież automatyzacja państw i korzystanie z coraz większych baz danych, także na potrzeby administracji publicznej, staje się codziennością. Także w Polsce rząd tworzy wspólny system administrowania takimi bazami: Zintegrowaną Platformę Analityczną.Kto czuwa nad tym, jak nowoczesna administracja korzysta z danych o ludziach? Jak wygląda praca przy projektowaniu algorytmów sztucznej inteligencji? Kto te systemy nadzoruje?Natalia Domagała – ekspertka, która jeszcze do niedawna kierowała zespołem zajmującym się polityką danych i sztucznej inteligencji w Centralnym Urzędzie do spraw Cyfryzacji i Danych w brytyjskiej administracji. Jej zespół stworzył pierwszy oficjalny standard przejrzystości algorytmów. Teraz Natalia pracuje w Ministerstwie Spraw Zagranicznych w Wielkiej Brytanii.Odsłuchaj, dodaj do ulubionej aplikacji przez RSS lub obejrzyj na YouTubie lub Vimeo.Na skróty:00:01 Wprowadzenie03:18 Technologia to jedyna deska ratunku dla kobiet07:13 Etyczne technologie w sektorze publicznym09:45 Gdzie Wielka Brytania używa sztucznej inteligencji?10:58 Dane używane w ochronie zdrowia16:00 Transparentne dane to norma18:44 Standard przejrzystości algorytmów27:26 Algorytmy, które mogą dyskryminować30:23 Jak informować ludzi, że wchodzą w interakcję z AI?37:35 Jak obejść „czarną skrzynkę” sztucznej inteligencji?44:29 ZakończenieDo posłuchania i poczytania:Panoptykon 4.0: Sztuczna inteligencja non-fiction. Rozmowa z Agatą ForyciarzPanoptykon: Nieudany eksperyment z profilowaniem bezrobotnych właśnie przechodzi do historiigov.uk: Standard transparencyjności algorytmówPodobają ci się nasze podcasty? Pomóż nam dalej tworzyć wartościowe treści. Wpłać darowiznę na konto Fundacji Panoptykon i przekaż 1,5% podatku (KRS: 0000327613). Audio file Aleksandra Iwańska Autorka Temat sztuczna inteligencja Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Ali Alkhatib o biurokracji i utopii algorytmów [wywiad] Czasami rozróżnienie na tzw. zaawansowane AI i zwykły, głupi formularz jest zbędne. Jeśli system jest okrutny – to jest okrutny. Zapraszamy na wywiad Jakuba Dymka z Alim Alkhatibim.Ten wywiad przeczytasz za darmo. 28.03.2025 Tekst Podcast Trwa walka o regulację sztucznej inteligencji w UE. Rozmowa z Filipem Konopczyńskim Kamery rozpoznające twarze. Bramki na lotniskach. Drony skanujące las, żeby wykrywać nielegalne wysypiska. I drony skanujące las na granicy, żeby wykrywać ludzi. Mówiące lodówki i Chat GPT. 18.05.2023 Dźwięk Artykuł Czatu GPT konflikty z prawem Nie trzeba było długo czekać, żeby obok memów z papieżem wygenerowanych przez ChatGPT w sieci zaroiło się od treści zawierających manipulację i dezinformację. Aplikacja szybko „weszła” też w konflikt z prawem. 28.04.2023 Tekst