Podcast 20.10.2022 3 min. czytania Dźwięk Image W sztucznej inteligencji niektórzy widzą zbawienie dla ludzkości: zwiększenie wydajności pracy, trafne rozpoznawanie chorób czy zwolnienie ludzi od schematycznych, nużących zajęć, które szybciej wykona inteligentny komputer.Coraz głośniej mówi się jednak o tym, że w pakiecie z technologicznym postępem przyjdą nowe problemy. W przypadku systemów SI zagrożenia są jak najbardziej realne – widać je gołym okiem już dziś. W wynikach rekrutacji prowadzonych z pomocą uczących się algorytmów (często i słusznie „oskarżanych” o dyskryminacyjne wzorce); w krzywdzących ludzi rozstrzygnięciach systemów analizujących ryzyko (w bankach, urzędach pracy, urzędach skarbowych, a nawet w wymiarze sprawiedliwości); w omylnych (a nierzadko „uprzedzonych rasowo”) systemach rozpoznawania twarzy… Lista niepokojących sygnałów jest, niestety, dłuższa.Sztuczna inteligencja sama z siebie nie jest ani nieomylna, ani sprawiedliwa. System wytrenowany na niekompletnych czy błędnych danych po prostu nie będzie działał prawidłowo. Podobnie jak system, któremu projektujący go lub nadzorujący człowiek źle wyznaczył zadanie.W tym roku Unia Europejska pracuje nad aktem o sztucznej inteligencji, który z jednej strony ma zwiększyć zaufanie ludzi do tej technologii, z drugiej – wspierać rozwój innowacji, a więc szanse europejskich firm w technologicznym wyścigu. W strategii sprzed dwóch lat Komisja Europejska chciała oba te cele pogodzić w podejściu, które oddaje jedno słowo: excellence. Doskonała technologia. Dobrze zaprojektowana, skuteczna i budząca zaufanie.O AI Act przeczytasz więcej w raporcie Sztuczna inteligencja pod kontrolą.Czy to wszystko da się pogodzić? Jak ambicje Komisji Europejskiej przełożyły się na język konkretnych przepisów? Co właściwie czeka nas, użytkowników technologii i jej twórców, w najbliższej przyszłości? Jeszcze większy chaos na rynku czy nowy porządek?O tym wszystkim rozmawiamy z dr. Michałem Nowakowskim – prawnikiem, ale też praktykiem (zarządza start-upem, w którym wdraża etyczne rozwiązania oparte na AI) i naukowcem (współpracuje m.in. ze śląskim Centrum Inżynierii Prawa, Technologii i Kompetencji Cyfrowych).Odsłuchaj, dodaj do ulubionej aplikacji przez RSS lub obejrzyj na YouTubie lub Vimeo.Na skróty:00:01 Wprowadzenie05:57 Definicja sztucznej inteligencji10:34 Ryzykowna sztuczna inteligencja13:03 Cambridge Analytica14:34 Jak wyłapać niebezpieczne algorytmy?18:11 Rozpoznawanie twarzy i scoring społeczny22:18 Ograniczenie algorytmów rekomendacyjnych26:11 Sztuczna inteligencja w medycynie30:35 Jak działa algorytm?36:51 Wgląd w dokumentację techniczną41:07 ZakończenieDo poczytania:Michał Nowakowski: Czy sztuczna inteligencja będzie zdolna odróżnić dane prawdziwe od nieprawdziwych?Panoptykon: To nie błąd, tylko logiczna konsekwencja modelu biznesowego Facebooka! (Cambridge Analytica)Polityka Insight i Panoptykon: Sztuczna inteligencja pod kontrolą (raport)Panoptykon: Sztuczna inteligencja non-fictionPodobają ci się nasze podcasty? Pomóż nam dalej tworzyć wartościowe treści. Wpłać darowiznę na konto Fundacji Panoptykon i przekaż 1,5% podatku (KRS: 0000327613). Audio file Aleksandra Iwańska Autorka Temat sztuczna inteligencja Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Raport: Sztuczna inteligencja pod kontrolą Sztuczna inteligencja: szansa czy zagrożenie? Jakie zawody znikną w związku z rozwojem AI? Te pytania zadaje sobie wiele osób obserwujących rozwój sztucznej inteligencji. W Unii Europejskiej trwają prace nad uregulowaniem tej dynamicznie rozwijającej się sfery. Akt o sztucznej inteligencji (AI Act… 13.10.2022 Tekst Podcast Odpowiedzialni za AI. Rozmowa z Sebastianem Szymańskim Czym jest sztuczna inteligencja, z jakimi zadaniami radzi sobie lepiej niż my, a w czym nam nie dorównuje? Czy jest czarną skrzynką, czy da się do niej zajrzeć? Kto jest odpowiedzialny za jej decyzje? Co zrobić, żeby nam „nie zaszkodziła?” Rozmawiamy z dr Sebastianem Szymańskim, filozofem,… 20.02.2020 Dźwięk Artykuł Unia reguluje sztuczną inteligencję. Co z zakazem rozpoznawania twarzy? W poprzednim tygodniu Rada Unii Europejskiej przyjęła kolejną wersję aktu o sztucznej inteligencji. Rozwój programów opartych na autonomicznych algorytmach, zastosowanie ich w medycynie, finansach czy motoryzacji wymusza taką regulację. 13.12.2022 Tekst