Podcast 09.09.2022 3 min. czytania Dźwięk Image Pewnego dnia Chermaine odebrała list z urzędu skarbowego, w którym żądano od niej zwrotu zasiłków wypłacanych jej przez ostatnie cztery lata na opiekę nad dziećmi. Kwota: 100 tysięcy euro.Dopiero 7 lat później wyszło na jaw, że holenderski fiskus określał ryzyko nadużyć w systemie przy pomocy algorytmu uczenia maszynowego. Oskarżone o wyłudzenie zasiłku rodziny musiały zwracać dziesiątki tysięcy euro i nie dostawały nawet szansy na udowodnienie swojej niewinności.Był to pierwszy głośny przypadek omyłki przy wykorzystywaniu sztucznej inteligencji w Europie. Ale przecież automatyzacja państw i korzystanie z coraz większych baz danych, także na potrzeby administracji publicznej, staje się codziennością. Także w Polsce rząd tworzy wspólny system administrowania takimi bazami: Zintegrowaną Platformę Analityczną.Kto czuwa nad tym, jak nowoczesna administracja korzysta z danych o ludziach? Jak wygląda praca przy projektowaniu algorytmów sztucznej inteligencji? Kto te systemy nadzoruje?Natalia Domagała – ekspertka, która jeszcze do niedawna kierowała zespołem zajmującym się polityką danych i sztucznej inteligencji w Centralnym Urzędzie do spraw Cyfryzacji i Danych w brytyjskiej administracji. Jej zespół stworzył pierwszy oficjalny standard przejrzystości algorytmów. Teraz Natalia pracuje w Ministerstwie Spraw Zagranicznych w Wielkiej Brytanii.Odsłuchaj, dodaj do ulubionej aplikacji przez RSS lub obejrzyj na YouTubie lub Vimeo.Na skróty:00:01 Wprowadzenie03:18 Technologia to jedyna deska ratunku dla kobiet07:13 Etyczne technologie w sektorze publicznym09:45 Gdzie Wielka Brytania używa sztucznej inteligencji?10:58 Dane używane w ochronie zdrowia16:00 Transparentne dane to norma18:44 Standard przejrzystości algorytmów27:26 Algorytmy, które mogą dyskryminować30:23 Jak informować ludzi, że wchodzą w interakcję z AI?37:35 Jak obejść „czarną skrzynkę” sztucznej inteligencji?44:29 ZakończenieDo posłuchania i poczytania:Panoptykon 4.0: Sztuczna inteligencja non-fiction. Rozmowa z Agatą ForyciarzPanoptykon: Nieudany eksperyment z profilowaniem bezrobotnych właśnie przechodzi do historiigov.uk: Standard transparencyjności algorytmówPodobają ci się nasze podcasty? Pomóż nam dalej tworzyć wartościowe treści. Wpłać darowiznę na konto Fundacji Panoptykon i przekaż 1,5% podatku (KRS: 0000327613). Audio file Aleksandra Iwańska Autorka Temat sztuczna inteligencja Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Rozpoznawanie twarzy przez policję w Wielkiej Brytanii nielegalne Sąd apelacyjny w Wielkiej Brytanii wydał w tym tygodniu przełomowy wyrok, w którym uznał za nielegalne wykorzystywanie automatycznego systemu rozpoznawania twarzy przez policję w południowej Walii. Testowany od 2017 r. system był do tej pory wykorzystany ok. 70 razy, m.in. podczas publicznych… 13.08.2020 Tekst Artykuł Projekt ustawy o systemach AI nie zwalnia Policji z nowych obowiązków (i dobrze!) Poznaliśmy kolejną wersję projektu ustawy wdrażającej unijny AI Act. Ministerstwo Cyfryzacji doprecyzowało, w jakim zakresie służby będą jej podlegały. Resort stoi twardo na stanowisku, że przepisy powinny obejmować działania Policji, Straży Granicznej i Służby Ochrony Państwa. 20.08.2025 Tekst Artykuł Unia szykuje przepisy dotyczące AI: 5 problemów Przepisy wspierające innowacje i chroniące przed nadużyciami – tak miała wyglądać unijna regulacja sztucznej inteligencji. Jednak propozycja przedstawiona przez Komisję Europejską 21 kwietnia nie odpowiada na najważniejsze wyzwania związane z rozwojem AI: nie stawia granic dla najbardziej… 30.04.2021 Tekst