Podcast 09.09.2022 2 min. czytania Dźwięk Image Pewnego dnia Chermaine odebrała list z urzędu skarbowego, w którym żądano od niej zwrotu zasiłków wypłacanych jej przez ostatnie cztery lata na opiekę nad dziećmi. Kwota: 100 tysięcy euro. Dopiero 7 lat później wyszło na jaw, że holenderski fiskus określał ryzyko nadużyć w systemie przy pomocy algorytmu uczenia maszynowego. Oskarżone o wyłudzenie zasiłku rodziny musiały zwracać dziesiątki tysięcy euro i nie dostawały nawet szansy na udowodnienie swojej niewinności. Był to pierwszy głośny przypadek omyłki przy wykorzystywaniu sztucznej inteligencji w Europie. Ale przecież automatyzacja państw i korzystanie z coraz większych baz danych, także na potrzeby administracji publicznej, staje się codziennością. Także w Polsce rząd tworzy wspólny system administrowania takimi bazami: Zintegrowaną Platformę Analityczną. Kto czuwa nad tym, jak nowoczesna administracja korzysta z danych o ludziach? Jak wygląda praca przy projektowaniu algorytmów sztucznej inteligencji? Kto te systemy nadzoruje? Natalia Domagała – ekspertka, która jeszcze do niedawna kierowała zespołem zajmującym się polityką danych i sztucznej inteligencji w Centralnym Urzędzie do spraw Cyfryzacji i Danych w brytyjskiej administracji. Jej zespół stworzył pierwszy oficjalny standard przejrzystości algorytmów. Teraz Natalia pracuje w Ministerstwie Spraw Zagranicznych w Wielkiej Brytanii. Odsłuchaj, dodaj do ulubionej aplikacji przez RSS lub obejrzyj na YouTubie lub Vimeo. Na skróty: 00:01 Wprowadzenie 03:18 Technologia to jedyna deska ratunku dla kobiet 07:13 Etyczne technologie w sektorze publicznym 09:45 Gdzie Wielka Brytania używa sztucznej inteligencji? 10:58 Dane używane w ochronie zdrowia 16:00 Transparentne dane to norma 18:44 Standard przejrzystości algorytmów 27:26 Algorytmy, które mogą dyskryminować 30:23 Jak informować ludzi, że wchodzą w interakcję z AI? 37:35 Jak obejść „czarną skrzynkę” sztucznej inteligencji? 44:29 Zakończenie Do posłuchania i poczytania: Panoptykon 4.0: Sztuczna inteligencja non-fiction. Rozmowa z Agatą Foryciarz Panoptykon: Nieudany eksperyment z profilowaniem bezrobotnych właśnie przechodzi do historii gov.uk: Standard transparencyjności algorytmów Podobają ci się nasze podcasty? Pomóż nam dalej tworzyć wartościowe treści. Wpłać darowiznę na konto Fundacji Panoptykon i przekaż 1% podatku (KRS: 0000327613). Audio file Aleksandra Iwańska Autorka Temat sztuczna inteligencja Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Administratorem twoich danych jest Fundacja Panoptykon. Więcej informacji o tym, jak przetwarzamy dane osób subskrybujących newsletter, znajdziesz w naszej Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Zobacz także Artykuł Stany Zjednoczone regulują sztuczną inteligencję. Nie są jedyne Pierwsza regulacja AI stała się faktem. Nie za sprawą głośnego w Unii Europejskiej aktu o sztucznej inteligencji, ale dekretu, który podpisał właśnie prezydent Stanów Zjednoczonych. To jednak przede wszystkim polityczna deklaracja. 10.11.2023 Tekst Artykuł Odzyskaj swoją twarz! Poprzyj kampanię przeciwko masowej inwigilacji biometrycznej Technologie, takie jak biometryczne rozpoznawanie twarzy, pozbawiają nas podstawowych praw: prywatności rozmowy z przyjaciółmi i rodziną, wolności demonstrowania w obronie planety i praw kobiet, aktywności społecznej i politycznej, odwiedzenia kościoła czy spotkania związku zawodowego bez wiedzy… 13.11.2020 Tekst Artykuł Sztuczna inteligencja non-fiction Jeśli pierwotna inteligencja należy do nas, to czyja jest sztuczna? Pierwsze skojarzenie: maszyn wytworzonych przez ludzi. Słynną robocią etykę w postaci trzech praw, z których najważniejsze głosi „Robot nie może skrzywdzić człowieka”, Isaac Asimow sformułował w 1942 r. Wiedział, co pisze – już… 15.07.2020 Tekst