Podcast 20.10.2022 3 min. czytania Dźwięk Image W sztucznej inteligencji niektórzy widzą zbawienie dla ludzkości: zwiększenie wydajności pracy, trafne rozpoznawanie chorób czy zwolnienie ludzi od schematycznych, nużących zajęć, które szybciej wykona inteligentny komputer. Coraz głośniej mówi się jednak o tym, że w pakiecie z technologicznym postępem przyjdą nowe problemy. W przypadku systemów SI zagrożenia są jak najbardziej realne – widać je gołym okiem już dziś. W wynikach rekrutacji prowadzonych z pomocą uczących się algorytmów (często i słusznie „oskarżanych” o dyskryminacyjne wzorce); w krzywdzących ludzi rozstrzygnięciach systemów analizujących ryzyko (w bankach, urzędach pracy, urzędach skarbowych, a nawet w wymiarze sprawiedliwości); w omylnych (a nierzadko „uprzedzonych rasowo”) systemach rozpoznawania twarzy… Lista niepokojących sygnałów jest, niestety, dłuższa. Sztuczna inteligencja sama z siebie nie jest ani nieomylna, ani sprawiedliwa. System wytrenowany na niekompletnych czy błędnych danych po prostu nie będzie działał prawidłowo. Podobnie jak system, któremu projektujący go lub nadzorujący człowiek źle wyznaczył zadanie. W tym roku Unia Europejska pracuje nad aktem o sztucznej inteligencji, który z jednej strony ma zwiększyć zaufanie ludzi do tej technologii, z drugiej – wspierać rozwój innowacji, a więc szanse europejskich firm w technologicznym wyścigu. W strategii sprzed dwóch lat Komisja Europejska chciała oba te cele pogodzić w podejściu, które oddaje jedno słowo: excellence. Doskonała technologia. Dobrze zaprojektowana, skuteczna i budząca zaufanie. O AI Act przeczytasz więcej w raporcie Sztuczna inteligencja pod kontrolą. Czy to wszystko da się pogodzić? Jak ambicje Komisji Europejskiej przełożyły się na język konkretnych przepisów? Co właściwie czeka nas, użytkowników technologii i jej twórców, w najbliższej przyszłości? Jeszcze większy chaos na rynku czy nowy porządek? O tym wszystkim rozmawiamy z dr. Michałem Nowakowskim – prawnikiem, ale też praktykiem (zarządza start-upem, w którym wdraża etyczne rozwiązania oparte na AI) i naukowcem (współpracuje m.in. ze śląskim Centrum Inżynierii Prawa, Technologii i Kompetencji Cyfrowych). Odsłuchaj, dodaj do ulubionej aplikacji przez RSS lub obejrzyj na YouTubie lub Vimeo. Na skróty: 00:01 Wprowadzenie 05:57 Definicja sztucznej inteligencji 10:34 Ryzykowna sztuczna inteligencja 13:03 Cambridge Analytica 14:34 Jak wyłapać niebezpieczne algorytmy? 18:11 Rozpoznawanie twarzy i scoring społeczny 22:18 Ograniczenie algorytmów rekomendacyjnych 26:11 Sztuczna inteligencja w medycynie 30:35 Jak działa algorytm? 36:51 Wgląd w dokumentację techniczną 41:07 Zakończenie Do poczytania: Michał Nowakowski: Czy sztuczna inteligencja będzie zdolna odróżnić dane prawdziwe od nieprawdziwych? Panoptykon: To nie błąd, tylko logiczna konsekwencja modelu biznesowego Facebooka! (Cambridge Analytica) Polityka Insight i Panoptykon: Sztuczna inteligencja pod kontrolą (raport) Panoptykon: Sztuczna inteligencja non-fiction Podobają ci się nasze podcasty? Pomóż nam dalej tworzyć wartościowe treści. Wpłać darowiznę na konto Fundacji Panoptykon i przekaż 1% podatku (KRS: 0000327613). Audio file Aleksandra Iwańska Autorka Temat sztuczna inteligencja Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Sztuczna inteligencja non-fiction Jeśli pierwotna inteligencja należy do nas, to czyja jest sztuczna? Pierwsze skojarzenie: maszyn wytworzonych przez ludzi. Słynną robocią etykę w postaci trzech praw, z których najważniejsze głosi „Robot nie może skrzywdzić człowieka”, Isaac Asimow sformułował w 1942 r. Wiedział, co pisze – już… 15.07.2020 Tekst Artykuł LaMDA – wiele hałasu o nic? W kwietniu 2022 r. zatrudniony w Google inżynier Blake Lemoine w wewnętrznym 22.11.2022 Tekst Artykuł AI w pracy. Kto chce uregulować niewidzialnego szefa? Algorytmy nadzorujące pracę i przydzielające zadania są codziennością coraz większej grupy pracowników. Pandemia Covid-19 przyzwyczaiła do elektronicznego szefa osoby pracujące za biurkiem, ale technologicznego nadzoru od lat doświadczali już pracownicy i pracowniczki branży logistycznej, call… 31.05.2022 Tekst