Artykuł 02.08.2024 2 min. czytania Tekst Image 1 sierpnia 2024 r. zaczęło obowiązywać unijne rozporządzenie o sztucznej inteligencji. Nasz komentarz.Ostateczny efekt prac nad rozporządzeniem o sztucznej inteligencji nie jest zachwycający. Jak to bywa z politycznymi kompromisami, każdy ma im coś do zarzucenia. Z perspektywy organizacji społecznych w tym prawie jest tyle luk i nieścisłości, że obawiamy się poważnych problemów na etapie jego egzekwowania. Szczególnie zakazy wprowadzania na rynek systemów AI o kontrowersyjnych zastosowaniach, które mogą naruszać prawa człowieka, ostatecznie zostały powycinane jak szwajcarski ser. W tym kontekście widzimy ważną rolę dla polskiego rządu.Niektóre z tych luk polski ustawodawca może załatać na etapie tworzenia przepisów krajowych. Polska może zrezygnować z szerokich wyłączeń dla systemów AI służących bezpieczeństwu publicznemu. I na to bardzo liczymy.Liczymy też na stworzenie w Polsce nowego, silnego organu odpowiedzialnego za nadzorowanie rynku i egzekwowanie standardów, jakie wprowadza rozporządzenie. Najwyższe standardy, w tym obowiązek ujawniania systemów AI w publicznej bazie i przeprowadzania oceny wpływu na prawa człowieka przed wdrożeniem takiej technologii w obszarach wysokiego ryzyka, dotyczą administracji publicznej.Chcemy dowiedzieć się, jak rząd wykorzystuje AIDo tej pory nie mieliśmy rzetelnych informacji o tym, jak państwo wykorzystuje sztuczną inteligencję. Mieliśmy też powody sądzić, że testowaniu i wdrażaniu takich systemów nie towarzyszył głęboki namysł nad ryzykami i korzyściami dla społeczeństwa. W publicznych wypowiedziach polityków pobrzmiewało płytkie, technosolucjonistyczne myślenie, że nowe technologie po prostu „trzeba wdrażać”, bo to dobrze wygląda i kiedyś może się na coś przydać.„Rozporządzenie o sztucznej inteligencji wymaga zupełnie innego podejścia do wdrażania systemów sztucznej inteligencji. Zanim się za to zabierzemy, musimy mieć dobrze przemyślane cele i dobrze nazwane ryzyka”.Katarzyna Szymielewicz, prezeska Fundacji PanoptykonA jeśli się okaże, że konkretny cel wcale nie wymaga zastosowania „nowych technologii”, albo że koszty i ryzyka społeczne są niewspółmierne do spodziewanych korzyści, administracja powinna takiego projektu zaniechać. Katarzyna Szymielewicz Autorka Temat sztuczna inteligencja prawo Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Sztuczna inteligencja pod kontrolą. Europa szykuje przepisy Bez względu na to, czy kibicujemy rozwojowi sztucznej inteligencji i jej obecności „w każdej lodówce”, czy się tego scenariusza obawiamy, jedno możemy przyjąć za pewnik: ta dziedzina wiedzy technicznej, o szerokim zastosowaniu, dopiero się rozkręca i niejednym nas jeszcze zaskoczy. Czekają nas nie… 29.06.2020 Tekst Artykuł Koniec negocjacji aktu ws. sztucznej inteligencji. Nie jest dobrze, ale mogło być gorzej Za nami ostatni odcinek negocjacji trójstronnych w sprawie unijnego rozporządzenia o sztucznej inteligencji. 12.12.2023 Tekst Artykuł Wybory nowego Prezesa UODO. Kim są kandydaci? 9 stycznia zbierze się sejmowa Komisja Sprawiedliwości i Praw Człowieka, która zaopiniuje kandydatury na stanowisko Prezesa Urzędu Ochrony Danych Osobowych. Poznajmy bliżej osoby, które chcą stanąć na straży naszej prywatności. 03.01.2024 Tekst