Artykuł Rozpoznawanie twarzy przez policję w Wielkiej Brytanii nielegalne Sąd apelacyjny w Wielkiej Brytanii wydał w tym tygodniu przełomowy wyrok, w którym uznał za nielegalne wykorzystywanie automatycznego systemu rozpoznawania twarzy przez policję w południowej Walii. Testowany od 2017 r. system był do tej pory wykorzystany ok. 70 razy, m.in. podczas publicznych zgromadzeń i demonstracji. Wyrok w sprawie systemów rozpoznawania twarzy przez walijską policję jest pierwszym tego typu wyrokiem na świecie i – choć wydany w Wielkiej Brytanii – może mieć wpływ na stosowanie tej technologii przez inne państwa. Sąd stwierdził, że system jest nielegalny m.in dlatego, że nie jest jasne, gdzie system może być stosowany i kto może trafić na listę osób do obserwowania. Kluczowe jest to, że sąd nie ograniczył się do stwierdzenia, że technologie automatycznego rozpoznawania twarzy naruszają wyłącznie prawo do prywatności, ale podkreślił, że naruszone jest także prawo do równego traktowania. Nie od dziś wiadomo chociażby, że algorytmy wykorzystywane przez „inteligentne” kamery, trenowane przede wszystkim na zdjęciach białych mężczyzn, o wiele częściej mylą się w przypadku kobiet czy osób o innym niż biały kolorze skóry, prowadząc do dyskryminacji. Sąd stwierdził, że policja nie zadbała o sprawdzenie, czy system nie powiela uprzedzeń. 13.08.2020 Tekst
Artykuł Patronujemy International Focus Programme – Law & Technology ELSA Poland Fundacja Panoptykon objęła patronatem tegoroczną edycję organizowanego przez ELSA Poland International Focus Programme – Law & Technology (IFP), poświęconą tematyce sztucznej inteligencji i praw człowieka. Dzięki partnerstwu studenci prawa i administracji przez cały rok przyglądać się będą naszym działaniom w tym obszarze. Będzie nas można spotkać na wydarzeniach organizowanych w ramach programu (o szczegółach będziemy informować na bieżąco na stronie). Program będzie realizowany od sierpnia 2020 r. do lipca 2021 r. 28.07.2020 Tekst
Raport Sztuczna inteligencja non-fiction Jeśli pierwotna inteligencja należy do nas, to czyja jest sztuczna? Pierwsze skojarzenie: maszyn wytworzonych przez ludzi. Słynną robocią etykę w postaci trzech praw, z których najważniejsze głosi „Robot nie może skrzywdzić człowieka”, Isaac Asimow sformułował w 1942 r. Wiedział, co pisze – już wtedy ta historia miała mroczną kartę. W 1920 r. Karel Čapek w dramacie R.U.R. pozwolił humanoidalnym automatom pozbyć się ludzkości. Wartość dodana buntu: słowo robot z czeszczyzny weszło na światową arenę SF i pozostało tam już na dobre. 15.07.2020 Tekst
Podcast Sztuczna inteligencja non-fiction. Rozmowa z Agatą Foryciarz Czy sztuczna inteligencja wybawi nas od koronawirusa? Z jakimi zadaniami radzi sobie dobrze, a do czego nie powinno się jej stosować? Czy naprawdę nie da się zrozumieć, jak działa? Jakie decyzje muszą podjąć projektanci algorytmów? Zapraszamy na rozmowę z Agatą Foryciarz, doktorantką na Uniwersytecie Stanforda, która bada algorytmy uczenia maszynowego w kontekście zastosowań biomedycznych. Agata Foryciarz jest również współautorką naszej najnowszej internetowej publikacji pt. Sztuczna inteligencja non-fiction, w której mierzymy się z popularnymi mitami na temat AI. 02.07.2020 Dźwięk
Artykuł Sztuczna inteligencja pod kontrolą. Europa szykuje przepisy Bez względu na to, czy kibicujemy rozwojowi sztucznej inteligencji i jej obecności „w każdej lodówce”, czy się tego scenariusza obawiamy, jedno możemy przyjąć za pewnik: ta dziedzina wiedzy technicznej, o szerokim zastosowaniu, dopiero się rozkręca i niejednym nas jeszcze zaskoczy. Czekają nas nie tylko kolejne wcielenia „inteligentnych” asystentów i profilowanych usług, ale też coraz szersze wykorzystanie AI do dokonywania wyborów za ludzi lub wspierania ich w obiektywnie trudnych decyzjach: od optymalizacji świadczeń publicznych i zarządzania szpitalami (a nawet planowania indywidualnych programów leczenia) po szacowanie ryzyka (finansowego, powodziowego, epidemiologicznego itd.) i przewidywanie, jak będzie się rozkładać przestępczość na mapach miast lub w ramach konkretnej populacji. Ale bogatsi o doświadczenia ze Stanów Zjednoczonych, gdzie AI w tych wszystkich obszarach już jest obecna, możemy zminimalizować negatywne skutki związane z jej wykorzystaniem – dzięki przygotowaniu odpowiedniej regulacji. 29.06.2020 Tekst
Inne Stanowisko Fundacji Panoptykon w konsultacjach białej księgi Komisji Europejskiej dot. sztucznej inteligencji 16.06.2020
Podcast Sztuczna inteligencja non-fiction Czym w rzeczywistości jest program komputerowy nazywany sztuczną inteligencją. Na jakich zasadach funkcjonuje? Do czego już dzisiaj jest wykorzystywany? Czy niesie ze sobą zagrożenia? Jak duży wpływ może mieć na życie zwykłego człowieka? 05.06.2020 Dźwięk
Podcast Co Polacy myślą o robotach? Rozmowa z Konradem Majem Czego boimy się w kontakcie z robotem? A czego od niego oczekujemy? Czy robot musi wyglądać jak człowiek? Komu prędzej zaufamy – robotowi, który nas leczy, czy temu, który po nas posprząta? Kto z robotem bierze ślub, a kto robota ma na sumieniu? I co to wszystko mówi o nas samych? Zapytaliśmy dr. Konrada Maja, kierownika Centrum Innowacji Społecznych i Technologicznych „HumanTech” Uniwersytetu SWPS, odpowiedzialnego za badania „Rozwój sztucznej inteligencji i roboty w życiu społecznym w opinii Polaków.” 19.03.2020 Dźwięk
Podcast Odpowiedzialni za AI. Rozmowa z Sebastianem Szymańskim Czym jest sztuczna inteligencja, z jakimi zadaniami radzi sobie lepiej niż my, a w czym nam nie dorównuje? Czy jest czarną skrzynką, czy da się do niej zajrzeć? Kto jest odpowiedzialny za jej decyzje? Co zrobić, żeby nam „nie zaszkodziła?” Rozmawiamy z dr Sebastianem Szymańskim, filozofem, wykładowcą na wydziale Artes Liberales na UW oraz członkiem Rady ds. Cyfryzacji, przewodniczącym grupy etyczno-prawnej w zespole przygotowującym założenia do polskiej strategii AI. 20.02.2020 Dźwięk