Podcast 09.09.2022 3 min. czytania Dźwięk Image Pewnego dnia Chermaine odebrała list z urzędu skarbowego, w którym żądano od niej zwrotu zasiłków wypłacanych jej przez ostatnie cztery lata na opiekę nad dziećmi. Kwota: 100 tysięcy euro.Dopiero 7 lat później wyszło na jaw, że holenderski fiskus określał ryzyko nadużyć w systemie przy pomocy algorytmu uczenia maszynowego. Oskarżone o wyłudzenie zasiłku rodziny musiały zwracać dziesiątki tysięcy euro i nie dostawały nawet szansy na udowodnienie swojej niewinności.Był to pierwszy głośny przypadek omyłki przy wykorzystywaniu sztucznej inteligencji w Europie. Ale przecież automatyzacja państw i korzystanie z coraz większych baz danych, także na potrzeby administracji publicznej, staje się codziennością. Także w Polsce rząd tworzy wspólny system administrowania takimi bazami: Zintegrowaną Platformę Analityczną.Kto czuwa nad tym, jak nowoczesna administracja korzysta z danych o ludziach? Jak wygląda praca przy projektowaniu algorytmów sztucznej inteligencji? Kto te systemy nadzoruje?Natalia Domagała – ekspertka, która jeszcze do niedawna kierowała zespołem zajmującym się polityką danych i sztucznej inteligencji w Centralnym Urzędzie do spraw Cyfryzacji i Danych w brytyjskiej administracji. Jej zespół stworzył pierwszy oficjalny standard przejrzystości algorytmów. Teraz Natalia pracuje w Ministerstwie Spraw Zagranicznych w Wielkiej Brytanii.Odsłuchaj, dodaj do ulubionej aplikacji przez RSS lub obejrzyj na YouTubie lub Vimeo.Na skróty:00:01 Wprowadzenie03:18 Technologia to jedyna deska ratunku dla kobiet07:13 Etyczne technologie w sektorze publicznym09:45 Gdzie Wielka Brytania używa sztucznej inteligencji?10:58 Dane używane w ochronie zdrowia16:00 Transparentne dane to norma18:44 Standard przejrzystości algorytmów27:26 Algorytmy, które mogą dyskryminować30:23 Jak informować ludzi, że wchodzą w interakcję z AI?37:35 Jak obejść „czarną skrzynkę” sztucznej inteligencji?44:29 ZakończenieDo posłuchania i poczytania:Panoptykon 4.0: Sztuczna inteligencja non-fiction. Rozmowa z Agatą ForyciarzPanoptykon: Nieudany eksperyment z profilowaniem bezrobotnych właśnie przechodzi do historiigov.uk: Standard transparencyjności algorytmówPodobają ci się nasze podcasty? Pomóż nam dalej tworzyć wartościowe treści. Wpłać darowiznę na konto Fundacji Panoptykon i przekaż 1,5% podatku (KRS: 0000327613). Audio file Aleksandra Iwańska Autorka Temat sztuczna inteligencja Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Poradnik AI Act w działaniu 2. Siri, Alexa i inni smart asystenci Wirtualny asystent linii lotniczej podał klientowi błędne informacje. Firma próbowała wykręcić się od odpowiedzialności, ale sąd uznał, że powinna zrealizować obietnicę złożoną przez bota funkcjonującego na jej stronie internetowej. Co mówi AI Act o odpowiedzialności za słowa i działania botów? 10.05.2024 Tekst Podcast AI znaczy rozwój? Rozmowa z Janem Filipem Staniłką W tej rozmowie zbliżymy się do głównego nurtu rozmowy o technologii i człowieku: sztucznej inteligencji. Ale nie będzie to rozmowa o robotach, a o polityce. O polityce rozwoju AI na lata 2019-27, wspieraniu innowacyjności i produktywności, gonieniu światowej czołówki i o tym, czy rozwój zawsze… 07.11.2019 Dźwięk Artykuł Premiera „Gdziekolwiek spojrzysz” (i konkurs) Dzisiaj ma swoją premierę trzecia część trylogii Ukryta sieć Jakuba Szamałka, w której główną rolę grają nowe technologie. W trzeciej części pt. Gdziekolwiek spojrzysz jest to przede wszystkim sztuczna inteligencja. Panoptykon jest partnerem wydawnictwa, a w naszym konkursie do wygrania 5 kompletów… 14.10.2020 Tekst