Artykuł 02.08.2024 3 min. czytania Tekst Image 1 sierpnia 2024 r. zaczęło obowiązywać unijne rozporządzenie o sztucznej inteligencji. Nasz komentarz.Ostateczny efekt prac nad rozporządzeniem o sztucznej inteligencji nie jest zachwycający. Jak to bywa z politycznymi kompromisami, każdy ma im coś do zarzucenia. Z perspektywy organizacji społecznych w tym prawie jest tyle luk i nieścisłości, że obawiamy się poważnych problemów na etapie jego egzekwowania. Szczególnie zakazy wprowadzania na rynek systemów AI o kontrowersyjnych zastosowaniach, które mogą naruszać prawa człowieka, ostatecznie zostały powycinane jak szwajcarski ser. W tym kontekście widzimy ważną rolę dla polskiego rządu.Niektóre z tych luk polski ustawodawca może załatać na etapie tworzenia przepisów krajowych. Polska może zrezygnować z szerokich wyłączeń dla systemów AI służących bezpieczeństwu publicznemu. I na to bardzo liczymy.Liczymy też na stworzenie w Polsce nowego, silnego organu odpowiedzialnego za nadzorowanie rynku i egzekwowanie standardów, jakie wprowadza rozporządzenie. Najwyższe standardy, w tym obowiązek ujawniania systemów AI w publicznej bazie i przeprowadzania oceny wpływu na prawa człowieka przed wdrożeniem takiej technologii w obszarach wysokiego ryzyka, dotyczą administracji publicznej.Chcemy dowiedzieć się, jak rząd wykorzystuje AIDo tej pory nie mieliśmy rzetelnych informacji o tym, jak państwo wykorzystuje sztuczną inteligencję. Mieliśmy też powody sądzić, że testowaniu i wdrażaniu takich systemów nie towarzyszył głęboki namysł nad ryzykami i korzyściami dla społeczeństwa. W publicznych wypowiedziach polityków pobrzmiewało płytkie, technosolucjonistyczne myślenie, że nowe technologie po prostu „trzeba wdrażać”, bo to dobrze wygląda i kiedyś może się na coś przydać.„Rozporządzenie o sztucznej inteligencji wymaga zupełnie innego podejścia do wdrażania systemów sztucznej inteligencji. Zanim się za to zabierzemy, musimy mieć dobrze przemyślane cele i dobrze nazwane ryzyka”.Katarzyna Szymielewicz, prezeska Fundacji PanoptykonA jeśli się okaże, że konkretny cel wcale nie wymaga zastosowania „nowych technologii”, albo że koszty i ryzyka społeczne są niewspółmierne do spodziewanych korzyści, administracja powinna takiego projektu zaniechać. Katarzyna Szymielewicz Autorka Temat sztuczna inteligencja prawo Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Odzyskaj swoją twarz! Poprzyj kampanię przeciwko masowej inwigilacji biometrycznej Technologie, takie jak biometryczne rozpoznawanie twarzy, pozbawiają nas podstawowych praw: prywatności rozmowy z przyjaciółmi i rodziną, wolności demonstrowania w obronie planety i praw kobiet, aktywności społecznej i politycznej, odwiedzenia kościoła czy spotkania związku zawodowego bez wiedzy… 13.11.2020 Tekst Artykuł „Sztuczna inteligencja to pusty, nic nieznaczący slogan” – matematyczka o technologiach, wdrażaniu AI i dyskryminacji [wywiad] „Nie wiemy, czy narzędzia sztucznej inteligencji są bezpieczne, bo nie zastanawiamy się nad tym, jak to rzetelnie sprawdzić” – mówi Cathy O’Neil, matematyczka, autorka książek i badaczka algorytmów. Zapraszamy na wywiad dziennikarza Jakuba Dymka. 14.08.2024 Tekst Artykuł Z Sejmu na gorąco Wczoraj rozpoczęły się w Sejmie prace nad przygotowanym przez Ministerstwo Cyfryzacji projektem ustawy o ochronie danych osobowych. Znienacka dorzucono do niego przepisy regulujące monitoring w szkołach, w pracy oraz na ulicach. Niestety, zgodnie z zarządzeniem Szefowej Kancelarii Sejmu nie… 09.05.2018 Tekst