Podcast 20.10.2022 3 min. czytania Dźwięk Image W sztucznej inteligencji niektórzy widzą zbawienie dla ludzkości: zwiększenie wydajności pracy, trafne rozpoznawanie chorób czy zwolnienie ludzi od schematycznych, nużących zajęć, które szybciej wykona inteligentny komputer.Coraz głośniej mówi się jednak o tym, że w pakiecie z technologicznym postępem przyjdą nowe problemy. W przypadku systemów SI zagrożenia są jak najbardziej realne – widać je gołym okiem już dziś. W wynikach rekrutacji prowadzonych z pomocą uczących się algorytmów (często i słusznie „oskarżanych” o dyskryminacyjne wzorce); w krzywdzących ludzi rozstrzygnięciach systemów analizujących ryzyko (w bankach, urzędach pracy, urzędach skarbowych, a nawet w wymiarze sprawiedliwości); w omylnych (a nierzadko „uprzedzonych rasowo”) systemach rozpoznawania twarzy… Lista niepokojących sygnałów jest, niestety, dłuższa.Sztuczna inteligencja sama z siebie nie jest ani nieomylna, ani sprawiedliwa. System wytrenowany na niekompletnych czy błędnych danych po prostu nie będzie działał prawidłowo. Podobnie jak system, któremu projektujący go lub nadzorujący człowiek źle wyznaczył zadanie.W tym roku Unia Europejska pracuje nad aktem o sztucznej inteligencji, który z jednej strony ma zwiększyć zaufanie ludzi do tej technologii, z drugiej – wspierać rozwój innowacji, a więc szanse europejskich firm w technologicznym wyścigu. W strategii sprzed dwóch lat Komisja Europejska chciała oba te cele pogodzić w podejściu, które oddaje jedno słowo: excellence. Doskonała technologia. Dobrze zaprojektowana, skuteczna i budząca zaufanie.O AI Act przeczytasz więcej w raporcie Sztuczna inteligencja pod kontrolą.Czy to wszystko da się pogodzić? Jak ambicje Komisji Europejskiej przełożyły się na język konkretnych przepisów? Co właściwie czeka nas, użytkowników technologii i jej twórców, w najbliższej przyszłości? Jeszcze większy chaos na rynku czy nowy porządek?O tym wszystkim rozmawiamy z dr. Michałem Nowakowskim – prawnikiem, ale też praktykiem (zarządza start-upem, w którym wdraża etyczne rozwiązania oparte na AI) i naukowcem (współpracuje m.in. ze śląskim Centrum Inżynierii Prawa, Technologii i Kompetencji Cyfrowych).Odsłuchaj, dodaj do ulubionej aplikacji przez RSS lub obejrzyj na YouTubie lub Vimeo.Na skróty:00:01 Wprowadzenie05:57 Definicja sztucznej inteligencji10:34 Ryzykowna sztuczna inteligencja13:03 Cambridge Analytica14:34 Jak wyłapać niebezpieczne algorytmy?18:11 Rozpoznawanie twarzy i scoring społeczny22:18 Ograniczenie algorytmów rekomendacyjnych26:11 Sztuczna inteligencja w medycynie30:35 Jak działa algorytm?36:51 Wgląd w dokumentację techniczną41:07 ZakończenieDo poczytania:Michał Nowakowski: Czy sztuczna inteligencja będzie zdolna odróżnić dane prawdziwe od nieprawdziwych?Panoptykon: To nie błąd, tylko logiczna konsekwencja modelu biznesowego Facebooka! (Cambridge Analytica)Polityka Insight i Panoptykon: Sztuczna inteligencja pod kontrolą (raport)Panoptykon: Sztuczna inteligencja non-fictionPodobają ci się nasze podcasty? Pomóż nam dalej tworzyć wartościowe treści. Wpłać darowiznę na konto Fundacji Panoptykon i przekaż 1,5% podatku (KRS: 0000327613). Audio file Aleksandra Iwańska Autorka Temat sztuczna inteligencja Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Sztuczna inteligencja pod kontrolą. Europa szykuje przepisy Bez względu na to, czy kibicujemy rozwojowi sztucznej inteligencji i jej obecności „w każdej lodówce”, czy się tego scenariusza obawiamy, jedno możemy przyjąć za pewnik: ta dziedzina wiedzy technicznej, o szerokim zastosowaniu, dopiero się rozkręca i niejednym nas jeszcze zaskoczy. Czekają nas nie… 29.06.2020 Tekst Artykuł Rozpoznawanie twarzy przez policję w Wielkiej Brytanii nielegalne Sąd apelacyjny w Wielkiej Brytanii wydał w tym tygodniu przełomowy wyrok, w którym uznał za nielegalne wykorzystywanie automatycznego systemu rozpoznawania twarzy przez policję w południowej Walii. Testowany od 2017 r. system był do tej pory wykorzystany ok. 70 razy, m.in. podczas publicznych… 13.08.2020 Tekst Artykuł Spotkajmy się w czerwcu Zapraszamy na trzy wydarzenia w czerwcu. 07.06.2021 Tekst