
Kamery rozpoznające twarze. Bramki na lotniskach. Drony skanujące las, żeby wykrywać nielegalne wysypiska. I drony skanujące las na granicy, żeby wykrywać ludzi. Mówiące lodówki i Chat GPT. Systemy i urządzenia, które wykorzystują sztuczną inteligencję, są wśród nas i pełnią bardzo różne funkcje. Czasem ich błąd nic nas nie kosztuje, czasem jednak robi się poważnie, gdy wchodzimy na pole medycyny, rekrutacji czy wymiaru sprawiedliwości.
To głównie z myślą o tych poważnych kontekstach ponad dwa lata temu Unia Europejska rozpoczęła prace nad pierwszą na świecie regulacją sztucznej inteligencji. W strategii Komisji Europejskiej na pierwszym miejscu jest wspieranie rozwoju AI. Są w niej programy finansowania innowacji i piaskownice dla start-upów. Prawne obowiązki pojawiają się dopiero tam, gdzie pojawia się ryzyko dla ludzi. Na pierwszy rzut oka ma to sens: nie hamujmy rozwoju technologii, tylko skupmy się na tym, żeby jej najpoważniejsze zastosowania spełniały wysokie standardy. Kłopot w tym, że czasem naprawdę trudno przewidzieć, jakie zastosowanie AI okaże się poważne w skutkach…
O próbach psucia i poprawiania propozycji, jaką w 2021 położyła na stole Komisja Europejska, i o tym, co jeszcze przed nami, mówi – w rozmowie z Katarzyną Szymielewicz – Filip Konopczyński, do niedawna analityk rynku AI w IDEAS NCBR, komentator specjalizujący się w obszarze nowych technologii, a od stycznia ekspert Fundacji Panoptykon.
Odsłuchaj, dodaj do ulubionej aplikacji przez RSS lub obejrzyj na YouTubie.
Do poczytania:
- Panoptykon: Sztuczna Inteligencja non-fiction
- Panoptykon, Polityka Insight: Raport: sztuczna inteligencja pod kontrolą
Działania organizacji w latach 2022–2024 dofinansowane z Funduszy Norweskich w ramach programu Aktywni Obywatele – Fundusz Krajowy.