Podcast 09.09.2022 3 min. czytania Dźwięk Image Pewnego dnia Chermaine odebrała list z urzędu skarbowego, w którym żądano od niej zwrotu zasiłków wypłacanych jej przez ostatnie cztery lata na opiekę nad dziećmi. Kwota: 100 tysięcy euro.Dopiero 7 lat później wyszło na jaw, że holenderski fiskus określał ryzyko nadużyć w systemie przy pomocy algorytmu uczenia maszynowego. Oskarżone o wyłudzenie zasiłku rodziny musiały zwracać dziesiątki tysięcy euro i nie dostawały nawet szansy na udowodnienie swojej niewinności.Był to pierwszy głośny przypadek omyłki przy wykorzystywaniu sztucznej inteligencji w Europie. Ale przecież automatyzacja państw i korzystanie z coraz większych baz danych, także na potrzeby administracji publicznej, staje się codziennością. Także w Polsce rząd tworzy wspólny system administrowania takimi bazami: Zintegrowaną Platformę Analityczną.Kto czuwa nad tym, jak nowoczesna administracja korzysta z danych o ludziach? Jak wygląda praca przy projektowaniu algorytmów sztucznej inteligencji? Kto te systemy nadzoruje?Natalia Domagała – ekspertka, która jeszcze do niedawna kierowała zespołem zajmującym się polityką danych i sztucznej inteligencji w Centralnym Urzędzie do spraw Cyfryzacji i Danych w brytyjskiej administracji. Jej zespół stworzył pierwszy oficjalny standard przejrzystości algorytmów. Teraz Natalia pracuje w Ministerstwie Spraw Zagranicznych w Wielkiej Brytanii.Odsłuchaj, dodaj do ulubionej aplikacji przez RSS lub obejrzyj na YouTubie lub Vimeo.Na skróty:00:01 Wprowadzenie03:18 Technologia to jedyna deska ratunku dla kobiet07:13 Etyczne technologie w sektorze publicznym09:45 Gdzie Wielka Brytania używa sztucznej inteligencji?10:58 Dane używane w ochronie zdrowia16:00 Transparentne dane to norma18:44 Standard przejrzystości algorytmów27:26 Algorytmy, które mogą dyskryminować30:23 Jak informować ludzi, że wchodzą w interakcję z AI?37:35 Jak obejść „czarną skrzynkę” sztucznej inteligencji?44:29 ZakończenieDo posłuchania i poczytania:Panoptykon 4.0: Sztuczna inteligencja non-fiction. Rozmowa z Agatą ForyciarzPanoptykon: Nieudany eksperyment z profilowaniem bezrobotnych właśnie przechodzi do historiigov.uk: Standard transparencyjności algorytmówPodobają ci się nasze podcasty? Pomóż nam dalej tworzyć wartościowe treści. Wpłać darowiznę na konto Fundacji Panoptykon i przekaż 1,5% podatku (KRS: 0000327613). Audio file Aleksandra Iwańska Autorka Temat sztuczna inteligencja Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Nauczka Ubera. Za korzystaniem z AI musi iść odpowiedzialność Człowiek nie sprawdzi się w roli nadzorcy sztucznej inteligencji, jeśli ma przejmować stery wyłącznie w sytuacjach awaryjnych. 09.11.2020 Tekst Artykuł Premiera „Gdziekolwiek spojrzysz” (i konkurs) Dzisiaj ma swoją premierę trzecia część trylogii Ukryta sieć Jakuba Szamałka, w której główną rolę grają nowe technologie. W trzeciej części pt. Gdziekolwiek spojrzysz jest to przede wszystkim sztuczna inteligencja. Panoptykon jest partnerem wydawnictwa, a w naszym konkursie do wygrania 5 kompletów… 14.10.2020 Tekst Artykuł Czy europosłowie i europosłanki zagłosują przeciwko biometrycznej inwigilacji? Wybieracie się na wybory? Demonstrację? A może mecz na Narodowym lub igrzyska w Paryżu? Szykujcie się na inwigilację biometryczną – nic nie stanie na przeszkodzie temu, żeby ją prowadzić, jeśli europosłowie i europosłanki pójdą za propozycją Europejskiej Partii Ludowej. 12.06.2023 Tekst