Artykuł 13.11.2020 2 min. czytania Tekst Image Technologie, takie jak biometryczne rozpoznawanie twarzy, pozbawiają nas podstawowych praw: prywatności rozmowy z przyjaciółmi i rodziną, wolności demonstrowania w obronie planety i praw kobiet, aktywności społecznej i politycznej, odwiedzenia kościoła czy spotkania związku zawodowego bez wiedzy osób postronnych, czy wreszcie chodzenia bez celu bez narażania się na podejrzenia. Dlatego europejska koalicja organizacji społecznych żąda: jawności – gdzie i w jakim celu stosowane są kamery rozpoznające twarz, zakazu ich stosowania w przestrzeni publicznej, szacunku zamiast manipulacji. Gorąco zachęcamy do poparcia petycji! Tajna. Nielegalna. Nieludzka. Kiedy jesteśmy monitorowani, zmieniamy własne zachowanie i sami się cenzurujemy. Masowa inwigilacja biometryczna to między innymi skanowanie wizerunku wszystkich osób w miejscach publicznych lub publicznie dostępnych. Profilowanie oparte na przetwarzaniu takich danych może skutkować dyskryminacją, na przykład kiedy „inteligentna kamera” za podejrzanego uznaje kogoś tylko ze względu na jego nietypowe zachowanie lub kolor skóry. Masowe wykorzystanie technologii rozpoznawania twarzy prowadzi też do drastycznego ograniczenia wolności manifestowania swoich poglądów: technologia ta pozwala na podstawie nagrań z przestrzeni publicznej ustalić tożsamość wszystkich uczestników i uczestniczek demonstracji. Przeciwko takiej formie naruszania naszych praw i wolności zaprotestowały europejskie organizacje zrzeszone pod parasolem European Digital Rights (w tym Panoptykon). Podpisz petycję, w której domagamy się zakazu stosowania biometrycznych technologii nadzoru w przestrzeni publicznej. Więcej o tym, dlaczego masowa inwigilacja biometryczna powinna być zakazana i przykłady zastosowania tej technologii w Europie. Wojciech Klicki Autor Temat sztuczna inteligencja monitoring wizyjny Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Poradnik AI Act w działaniu 2. Siri, Alexa i inni smart asystenci Wirtualny asystent linii lotniczej podał klientowi błędne informacje. Firma próbowała wykręcić się od odpowiedzialności, ale sąd uznał, że powinna zrealizować obietnicę złożoną przez bota funkcjonującego na jej stronie internetowej. Co mówi AI Act o odpowiedzialności za słowa i działania botów? 10.05.2024 Tekst Podcast Jak działa sztuczna inteligencja? Rozmowa z dr. Tomaszem Odrzygóździem Czym są duże modele językowe i czy znamy ich potencjał? Czy szum wokół sztucznej inteligencji, z którym mamy teraz do czynienia, jest uzasadniony? Jak to wszystko wpływa na prace nad AI Act i powstanie europejskiego modelu regulacji AI? O tym w dzisiejszym odcinku podcastu. Gościem Katarzyny… 04.05.2023 Dźwięk Podcast Czy jesteśmy gotowi na sztuczną inteligencję? Szkoła przyszłości. Rozmowa z Paulą Bruszewską Choć od lat człowiek może w sekundę znaleźć dowolną informację, dalej spędza dwie pierwsze dekady życia, wkuwając na pamięć. Nauczyciele nie mają przestrzeni, by uczyć współpracy z technologią i jej kreatywnego wykorzystania. 23.05.2024 Dźwięk