Podcast 20.10.2022 3 min. czytania Dźwięk Image W sztucznej inteligencji niektórzy widzą zbawienie dla ludzkości: zwiększenie wydajności pracy, trafne rozpoznawanie chorób czy zwolnienie ludzi od schematycznych, nużących zajęć, które szybciej wykona inteligentny komputer.Coraz głośniej mówi się jednak o tym, że w pakiecie z technologicznym postępem przyjdą nowe problemy. W przypadku systemów SI zagrożenia są jak najbardziej realne – widać je gołym okiem już dziś. W wynikach rekrutacji prowadzonych z pomocą uczących się algorytmów (często i słusznie „oskarżanych” o dyskryminacyjne wzorce); w krzywdzących ludzi rozstrzygnięciach systemów analizujących ryzyko (w bankach, urzędach pracy, urzędach skarbowych, a nawet w wymiarze sprawiedliwości); w omylnych (a nierzadko „uprzedzonych rasowo”) systemach rozpoznawania twarzy… Lista niepokojących sygnałów jest, niestety, dłuższa.Sztuczna inteligencja sama z siebie nie jest ani nieomylna, ani sprawiedliwa. System wytrenowany na niekompletnych czy błędnych danych po prostu nie będzie działał prawidłowo. Podobnie jak system, któremu projektujący go lub nadzorujący człowiek źle wyznaczył zadanie.W tym roku Unia Europejska pracuje nad aktem o sztucznej inteligencji, który z jednej strony ma zwiększyć zaufanie ludzi do tej technologii, z drugiej – wspierać rozwój innowacji, a więc szanse europejskich firm w technologicznym wyścigu. W strategii sprzed dwóch lat Komisja Europejska chciała oba te cele pogodzić w podejściu, które oddaje jedno słowo: excellence. Doskonała technologia. Dobrze zaprojektowana, skuteczna i budząca zaufanie.O AI Act przeczytasz więcej w raporcie Sztuczna inteligencja pod kontrolą.Czy to wszystko da się pogodzić? Jak ambicje Komisji Europejskiej przełożyły się na język konkretnych przepisów? Co właściwie czeka nas, użytkowników technologii i jej twórców, w najbliższej przyszłości? Jeszcze większy chaos na rynku czy nowy porządek?O tym wszystkim rozmawiamy z dr. Michałem Nowakowskim – prawnikiem, ale też praktykiem (zarządza start-upem, w którym wdraża etyczne rozwiązania oparte na AI) i naukowcem (współpracuje m.in. ze śląskim Centrum Inżynierii Prawa, Technologii i Kompetencji Cyfrowych).Odsłuchaj, dodaj do ulubionej aplikacji przez RSS lub obejrzyj na YouTubie lub Vimeo.Na skróty:00:01 Wprowadzenie05:57 Definicja sztucznej inteligencji10:34 Ryzykowna sztuczna inteligencja13:03 Cambridge Analytica14:34 Jak wyłapać niebezpieczne algorytmy?18:11 Rozpoznawanie twarzy i scoring społeczny22:18 Ograniczenie algorytmów rekomendacyjnych26:11 Sztuczna inteligencja w medycynie30:35 Jak działa algorytm?36:51 Wgląd w dokumentację techniczną41:07 ZakończenieDo poczytania:Michał Nowakowski: Czy sztuczna inteligencja będzie zdolna odróżnić dane prawdziwe od nieprawdziwych?Panoptykon: To nie błąd, tylko logiczna konsekwencja modelu biznesowego Facebooka! (Cambridge Analytica)Polityka Insight i Panoptykon: Sztuczna inteligencja pod kontrolą (raport)Panoptykon: Sztuczna inteligencja non-fictionPodobają ci się nasze podcasty? Pomóż nam dalej tworzyć wartościowe treści. Wpłać darowiznę na konto Fundacji Panoptykon i przekaż 1,5% podatku (KRS: 0000327613). Audio file Aleksandra Iwańska Autorka Temat sztuczna inteligencja Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Unia reguluje sztuczną inteligencję. Co z zakazem rozpoznawania twarzy? W poprzednim tygodniu Rada Unii Europejskiej przyjęła kolejną wersję aktu o sztucznej inteligencji. Rozwój programów opartych na autonomicznych algorytmach, zastosowanie ich w medycynie, finansach czy motoryzacji wymusza taką regulację. 13.12.2022 Tekst Artykuł AI Act zaczyna obowiązywać. Co ostudzi tech optymizm polskich władz? [komentarz] 1 sierpnia 2024 r. zaczęło obowiązywać unijne rozporządzenie o sztucznej inteligencji. Nasz komentarz. 02.08.2024 Tekst Podcast O pracy w przyszłości. Rozmowa z dr hab. Renatą Włoch Do 2030 roku 47% miejsc pracy zostanie zautomatyzowanych. Czy technologia uwolni nas od najbardziej żmudnych zadań? Kto straci, a kto zyska na automatyzacji? Co to jest „sztuczna” sztuczna inteligencja i kto trenuje algorytmy? Jakie kompetencje się nie przeterminują. O przyszłości pracy rozmawiamy… 19.12.2019 Dźwięk