Artykuł 02.08.2024 2 min. czytania Tekst Image 1 sierpnia 2024 r. zaczęło obowiązywać unijne rozporządzenie o sztucznej inteligencji. Nasz komentarz.Ostateczny efekt prac nad rozporządzeniem o sztucznej inteligencji nie jest zachwycający. Jak to bywa z politycznymi kompromisami, każdy ma im coś do zarzucenia. Z perspektywy organizacji społecznych w tym prawie jest tyle luk i nieścisłości, że obawiamy się poważnych problemów na etapie jego egzekwowania. Szczególnie zakazy wprowadzania na rynek systemów AI o kontrowersyjnych zastosowaniach, które mogą naruszać prawa człowieka, ostatecznie zostały powycinane jak szwajcarski ser. W tym kontekście widzimy ważną rolę dla polskiego rządu.Niektóre z tych luk polski ustawodawca może załatać na etapie tworzenia przepisów krajowych. Polska może zrezygnować z szerokich wyłączeń dla systemów AI służących bezpieczeństwu publicznemu. I na to bardzo liczymy.Liczymy też na stworzenie w Polsce nowego, silnego organu odpowiedzialnego za nadzorowanie rynku i egzekwowanie standardów, jakie wprowadza rozporządzenie. Najwyższe standardy, w tym obowiązek ujawniania systemów AI w publicznej bazie i przeprowadzania oceny wpływu na prawa człowieka przed wdrożeniem takiej technologii w obszarach wysokiego ryzyka, dotyczą administracji publicznej.Chcemy dowiedzieć się, jak rząd wykorzystuje AIDo tej pory nie mieliśmy rzetelnych informacji o tym, jak państwo wykorzystuje sztuczną inteligencję. Mieliśmy też powody sądzić, że testowaniu i wdrażaniu takich systemów nie towarzyszył głęboki namysł nad ryzykami i korzyściami dla społeczeństwa. W publicznych wypowiedziach polityków pobrzmiewało płytkie, technosolucjonistyczne myślenie, że nowe technologie po prostu „trzeba wdrażać”, bo to dobrze wygląda i kiedyś może się na coś przydać.„Rozporządzenie o sztucznej inteligencji wymaga zupełnie innego podejścia do wdrażania systemów sztucznej inteligencji. Zanim się za to zabierzemy, musimy mieć dobrze przemyślane cele i dobrze nazwane ryzyka”.Katarzyna Szymielewicz, prezeska Fundacji PanoptykonA jeśli się okaże, że konkretny cel wcale nie wymaga zastosowania „nowych technologii”, albo że koszty i ryzyka społeczne są niewspółmierne do spodziewanych korzyści, administracja powinna takiego projektu zaniechać. Katarzyna Szymielewicz Autorka Temat sztuczna inteligencja prawo Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Podcast Odpowiedzialni za AI. Rozmowa z Sebastianem Szymańskim Czym jest sztuczna inteligencja, z jakimi zadaniami radzi sobie lepiej niż my, a w czym nam nie dorównuje? Czy jest czarną skrzynką, czy da się do niej zajrzeć? Kto jest odpowiedzialny za jej decyzje? Co zrobić, żeby nam „nie zaszkodziła?” Rozmawiamy z dr Sebastianem Szymańskim, filozofem,… 20.02.2020 Dźwięk Artykuł Uwaga konkurs! Sztuczna inteligencja w kinie O filmie iHuman w reżyserii Tonje Hessen Schei po raz pierwszy usłyszeliśmy kilka dni po jego premierze i mocno trzymaliśmy kciuki, żeby mogła go zobaczyć również polska publiczność. Udało się! 03.09.2020 Tekst Artykuł Dane pasażerów na jutrzejszym posiedzeniu rządu Jutro rząd zajmie się projektem ustawy o danych PNR. 04.04.2018 Tekst