Artykuł 02.08.2024 2 min. czytania Tekst Image 1 sierpnia 2024 r. zaczęło obowiązywać unijne rozporządzenie o sztucznej inteligencji. Nasz komentarz.Ostateczny efekt prac nad rozporządzeniem o sztucznej inteligencji nie jest zachwycający. Jak to bywa z politycznymi kompromisami, każdy ma im coś do zarzucenia. Z perspektywy organizacji społecznych w tym prawie jest tyle luk i nieścisłości, że obawiamy się poważnych problemów na etapie jego egzekwowania. Szczególnie zakazy wprowadzania na rynek systemów AI o kontrowersyjnych zastosowaniach, które mogą naruszać prawa człowieka, ostatecznie zostały powycinane jak szwajcarski ser. W tym kontekście widzimy ważną rolę dla polskiego rządu.Niektóre z tych luk polski ustawodawca może załatać na etapie tworzenia przepisów krajowych. Polska może zrezygnować z szerokich wyłączeń dla systemów AI służących bezpieczeństwu publicznemu. I na to bardzo liczymy.Liczymy też na stworzenie w Polsce nowego, silnego organu odpowiedzialnego za nadzorowanie rynku i egzekwowanie standardów, jakie wprowadza rozporządzenie. Najwyższe standardy, w tym obowiązek ujawniania systemów AI w publicznej bazie i przeprowadzania oceny wpływu na prawa człowieka przed wdrożeniem takiej technologii w obszarach wysokiego ryzyka, dotyczą administracji publicznej.Chcemy dowiedzieć się, jak rząd wykorzystuje AIDo tej pory nie mieliśmy rzetelnych informacji o tym, jak państwo wykorzystuje sztuczną inteligencję. Mieliśmy też powody sądzić, że testowaniu i wdrażaniu takich systemów nie towarzyszył głęboki namysł nad ryzykami i korzyściami dla społeczeństwa. W publicznych wypowiedziach polityków pobrzmiewało płytkie, technosolucjonistyczne myślenie, że nowe technologie po prostu „trzeba wdrażać”, bo to dobrze wygląda i kiedyś może się na coś przydać.„Rozporządzenie o sztucznej inteligencji wymaga zupełnie innego podejścia do wdrażania systemów sztucznej inteligencji. Zanim się za to zabierzemy, musimy mieć dobrze przemyślane cele i dobrze nazwane ryzyka”.Katarzyna Szymielewicz, prezeska Fundacji PanoptykonA jeśli się okaże, że konkretny cel wcale nie wymaga zastosowania „nowych technologii”, albo że koszty i ryzyka społeczne są niewspółmierne do spodziewanych korzyści, administracja powinna takiego projektu zaniechać. Katarzyna Szymielewicz Autorka Temat sztuczna inteligencja prawo Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Po konsultacjach nowej ustawy o ochronie danych: podsumowujemy zdobycze i straty Ministerstwo Cyfryzacji opublikowało nową wersję ustawy o ochronie danych osobowych, będącej wdrożeniem RODO. Prowadzone przez kilka miesięcy konsultacje publiczne nie poszły na marne: pod wpływem zgłoszonych uwag Ministerstwo poprawiło tryb powoływania prezesa Urzędu Ochrony Danych Osobowych (… 13.02.2018 Tekst Artykuł GOV.PL bez Google Analytics. Co z pozostałymi stronami instytucji publicznych? Ministerstwo Cyfryzacji po wewnętrznej analizie doszło do wniosku, że na portalach rządowych nie powinno osadzać się skryptów Google Analytics. Wciąż nie mamy jasnej deklaracji o sformułowaniu zaleceń używania narzędzi na innych stronach administracji publicznej. 21.08.2024 Tekst Artykuł Dane pasażerów na jutrzejszym posiedzeniu rządu Jutro rząd zajmie się projektem ustawy o danych PNR. 04.04.2018 Tekst