Artykuł 02.08.2024 2 min. czytania Tekst Image 1 sierpnia 2024 r. zaczęło obowiązywać unijne rozporządzenie o sztucznej inteligencji. Nasz komentarz.Ostateczny efekt prac nad rozporządzeniem o sztucznej inteligencji nie jest zachwycający. Jak to bywa z politycznymi kompromisami, każdy ma im coś do zarzucenia. Z perspektywy organizacji społecznych w tym prawie jest tyle luk i nieścisłości, że obawiamy się poważnych problemów na etapie jego egzekwowania. Szczególnie zakazy wprowadzania na rynek systemów AI o kontrowersyjnych zastosowaniach, które mogą naruszać prawa człowieka, ostatecznie zostały powycinane jak szwajcarski ser. W tym kontekście widzimy ważną rolę dla polskiego rządu.Niektóre z tych luk polski ustawodawca może załatać na etapie tworzenia przepisów krajowych. Polska może zrezygnować z szerokich wyłączeń dla systemów AI służących bezpieczeństwu publicznemu. I na to bardzo liczymy.Liczymy też na stworzenie w Polsce nowego, silnego organu odpowiedzialnego za nadzorowanie rynku i egzekwowanie standardów, jakie wprowadza rozporządzenie. Najwyższe standardy, w tym obowiązek ujawniania systemów AI w publicznej bazie i przeprowadzania oceny wpływu na prawa człowieka przed wdrożeniem takiej technologii w obszarach wysokiego ryzyka, dotyczą administracji publicznej.Chcemy dowiedzieć się, jak rząd wykorzystuje AIDo tej pory nie mieliśmy rzetelnych informacji o tym, jak państwo wykorzystuje sztuczną inteligencję. Mieliśmy też powody sądzić, że testowaniu i wdrażaniu takich systemów nie towarzyszył głęboki namysł nad ryzykami i korzyściami dla społeczeństwa. W publicznych wypowiedziach polityków pobrzmiewało płytkie, technosolucjonistyczne myślenie, że nowe technologie po prostu „trzeba wdrażać”, bo to dobrze wygląda i kiedyś może się na coś przydać.„Rozporządzenie o sztucznej inteligencji wymaga zupełnie innego podejścia do wdrażania systemów sztucznej inteligencji. Zanim się za to zabierzemy, musimy mieć dobrze przemyślane cele i dobrze nazwane ryzyka”.Katarzyna Szymielewicz, prezeska Fundacji PanoptykonA jeśli się okaże, że konkretny cel wcale nie wymaga zastosowania „nowych technologii”, albo że koszty i ryzyka społeczne są niewspółmierne do spodziewanych korzyści, administracja powinna takiego projektu zaniechać. Katarzyna Szymielewicz Autorka Temat sztuczna inteligencja prawo Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Nauczka Ubera. Za korzystaniem z AI musi iść odpowiedzialność Człowiek nie sprawdzi się w roli nadzorcy sztucznej inteligencji, jeśli ma przejmować stery wyłącznie w sytuacjach awaryjnych. 09.11.2020 Tekst Artykuł Panoptykonowe Centrum Legislacji Kilka tygodni temu opublikowaliśmy projekt nowej ustawy o ochronie informacji niejawnych. Każdy projekt, nawet dotyczący tajemnic, powinien być jawny, szczególnie że ustawa dotknie m.in. 17.06.2019 Tekst Artykuł Parlament Europejski przyjął treść regulacji sztucznej inteligencji. Jak AI Act ochroni nasze prawa Europosłowie nie zdecydowali się na całkowite zakazanie inwigilacji biometrycznej w przestrzeni publicznej ani na przyznanie prawa do uzyskania wyjaśnienia osobom poszkodowanym decyzją podjętą z udziałem AI, niezależnie od kategorii systemu – co postulowały organizacje społeczne. Ale są też… 15.06.2023 Tekst