Podcast 20.10.2022 3 min. czytania Dźwięk Image W sztucznej inteligencji niektórzy widzą zbawienie dla ludzkości: zwiększenie wydajności pracy, trafne rozpoznawanie chorób czy zwolnienie ludzi od schematycznych, nużących zajęć, które szybciej wykona inteligentny komputer. Coraz głośniej mówi się jednak o tym, że w pakiecie z technologicznym postępem przyjdą nowe problemy. W przypadku systemów SI zagrożenia są jak najbardziej realne – widać je gołym okiem już dziś. W wynikach rekrutacji prowadzonych z pomocą uczących się algorytmów (często i słusznie „oskarżanych” o dyskryminacyjne wzorce); w krzywdzących ludzi rozstrzygnięciach systemów analizujących ryzyko (w bankach, urzędach pracy, urzędach skarbowych, a nawet w wymiarze sprawiedliwości); w omylnych (a nierzadko „uprzedzonych rasowo”) systemach rozpoznawania twarzy… Lista niepokojących sygnałów jest, niestety, dłuższa. Sztuczna inteligencja sama z siebie nie jest ani nieomylna, ani sprawiedliwa. System wytrenowany na niekompletnych czy błędnych danych po prostu nie będzie działał prawidłowo. Podobnie jak system, któremu projektujący go lub nadzorujący człowiek źle wyznaczył zadanie. W tym roku Unia Europejska pracuje nad aktem o sztucznej inteligencji, który z jednej strony ma zwiększyć zaufanie ludzi do tej technologii, z drugiej – wspierać rozwój innowacji, a więc szanse europejskich firm w technologicznym wyścigu. W strategii sprzed dwóch lat Komisja Europejska chciała oba te cele pogodzić w podejściu, które oddaje jedno słowo: excellence. Doskonała technologia. Dobrze zaprojektowana, skuteczna i budząca zaufanie. O AI Act przeczytasz więcej w raporcie Sztuczna inteligencja pod kontrolą. Czy to wszystko da się pogodzić? Jak ambicje Komisji Europejskiej przełożyły się na język konkretnych przepisów? Co właściwie czeka nas, użytkowników technologii i jej twórców, w najbliższej przyszłości? Jeszcze większy chaos na rynku czy nowy porządek? O tym wszystkim rozmawiamy z dr. Michałem Nowakowskim – prawnikiem, ale też praktykiem (zarządza start-upem, w którym wdraża etyczne rozwiązania oparte na AI) i naukowcem (współpracuje m.in. ze śląskim Centrum Inżynierii Prawa, Technologii i Kompetencji Cyfrowych). Odsłuchaj, dodaj do ulubionej aplikacji przez RSS lub obejrzyj na YouTubie lub Vimeo. Na skróty: 00:01 Wprowadzenie 05:57 Definicja sztucznej inteligencji 10:34 Ryzykowna sztuczna inteligencja 13:03 Cambridge Analytica 14:34 Jak wyłapać niebezpieczne algorytmy? 18:11 Rozpoznawanie twarzy i scoring społeczny 22:18 Ograniczenie algorytmów rekomendacyjnych 26:11 Sztuczna inteligencja w medycynie 30:35 Jak działa algorytm? 36:51 Wgląd w dokumentację techniczną 41:07 Zakończenie Do poczytania: Michał Nowakowski: Czy sztuczna inteligencja będzie zdolna odróżnić dane prawdziwe od nieprawdziwych? Panoptykon: To nie błąd, tylko logiczna konsekwencja modelu biznesowego Facebooka! (Cambridge Analytica) Polityka Insight i Panoptykon: Sztuczna inteligencja pod kontrolą (raport) Panoptykon: Sztuczna inteligencja non-fiction Podobają ci się nasze podcasty? Pomóż nam dalej tworzyć wartościowe treści. Wpłać darowiznę na konto Fundacji Panoptykon i przekaż 1% podatku (KRS: 0000327613). Audio file Aleksandra Iwańska Autorka Temat sztuczna inteligencja Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Administratorem twoich danych jest Fundacja Panoptykon. Więcej informacji o tym, jak przetwarzamy dane osób subskrybujących newsletter, znajdziesz w naszej Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Zobacz także Artykuł Parlament Europejski przyjął treść regulacji sztucznej inteligencji. Jak AI Act ochroni nasze prawa Europosłowie nie zdecydowali się na całkowite zakazanie inwigilacji biometrycznej w przestrzeni publicznej ani na przyznanie prawa do uzyskania wyjaśnienia osobom poszkodowanym decyzją podjętą z udziałem AI, niezależnie od kategorii systemu – co postulowały organizacje społeczne. Ale są też… 15.06.2023 Tekst Podcast Trwa walka o regulację sztucznej inteligencji w UE. Rozmowa z Filipem Konopczyńskim Kamery rozpoznające twarze. Bramki na lotniskach. Drony skanujące las, żeby wykrywać nielegalne wysypiska. I drony skanujące las na granicy, żeby wykrywać ludzi. Mówiące lodówki i Chat GPT. 18.05.2023 Dźwięk Artykuł Rozpoznawanie twarzy przez policję w Wielkiej Brytanii nielegalne Sąd apelacyjny w Wielkiej Brytanii wydał w tym tygodniu przełomowy wyrok, w którym uznał za nielegalne wykorzystywanie automatycznego systemu rozpoznawania twarzy przez policję w południowej Walii. Testowany od 2017 r. system był do tej pory wykorzystany ok. 70 razy, m.in. podczas publicznych… 13.08.2020 Tekst