Artykuł 18.04.2012 20 min. czytania Tekst Rzadko się zdarza, że projekt badawczy, zanim nawet wejdzie w fazę testowania, zyskuje tak złą prasę. Internet i media już ochrzciły realizowany z europejskich środków projekt INDECT następcą ACTA. Czy rzeczywiście cokolwiek łączy te dwa akronimy? Skąd tyle kontrowersji? Nie odnosimy się do wszystkich mitów narosłych wokół tego projektu badawczego, ale podsumowujemy nasze zastrzeżenia. Co zmienia INDECT? Skrót INDECT oznacza inteligentny system informacyjny wspierający obserwację, wyszukiwanie i detekcję dla celów bezpieczeństwa obywateli w środowisku miejskim (ang. Intelligent information system supporting observation, searching and detection for security of citizens in urban environment). Jest to międzynarodowy projekt badawczy, finansowany przez Unię Europejską i realizowany przez 17 europejskich partnerów pod przewodnictwem Akademii Górniczo-Hutniczej w Krakowie. Jak twierdzą sami naukowcy, projekt ma na celu "wykorzystanie innowacyjnych algorytmów i metod z zakresu informatyki do wykrywania i walki z terroryzmem oraz innymi działaniami przestępczymi". W wyniku prowadzonych badań ma powstać zestaw narzędzi do inteligentnej obserwacji i automatycznego wykrywania podejrzanych zachowań lub przemocy w środowisku miejskim. Co to oznacza w praktyce? Badacze zaangażowani w projekt powtarzają, że INDECT nie zakłada stworzenia nowych technik nadzoru i obserwacji. Wyjaśniają, że mamy jedynie do czynienia z pewną innowacją, która usprawni działanie istniejących systemów bezpieczeństwa. "Projekt sprowadzono do hasła >>Wielkiego Brata<<, a przecież w każdym mieście istnieje monitoring i każdy z nas, będąc na ulicy, znajduje się w oku kilku kamer" - przekonywał w rozmowie z Polska The Times rzecznik AGH Bartosz Dembiński. INDECT rzeczywiście nie zwiększy liczby montowanych kamer. Może jednak zasadniczo wpłynąć na ich sposób działania. Jeśli technologie wypracowane w ramach projektu INDECT trafią na rynek lub zostaną wykorzystane przez policję, systemy monitoringu wizyjnego będą w stanie automatycznie reagować na zachowania zdefiniowane jako niebezpieczne. System będzie sygnalizować operatorowi, że kamera „zobaczyła” coś niepokojącego. Albo „usłyszała”, ponieważ w rozwijanej przez INDECT technologii kamery mają również rejestrować dźwięki. W ramach tak ulepszonego systemu monitoringu kamery będą ze sobą współpracować. Na przykład będą w stanie śledzić osobę, która biegnie albo konkretny samochód. W tej chwili sekwencje wizyjne rejestrowane przez kamery są przechowywane w bazach danych, które mają ograniczone możliwości szybkiego wyszukiwania informacji. INDECT również to ma poprawić. Dla porównania, systemy monitoringu, jakie dziś działają w większości polskich miast, często nie są nawet w stanie poprawnie rejestrować obrazu nocą. Zmiana jakościowa, jaką proponują naukowcy zaangażowani w INDECT, ma zatem duży potencjał. INDECT to nie tylko nowa jakość w sieciach monitoringu wizyjnego. Inteligentne kamery mają być tylko jednym z elementów infrastruktury potrzebnej do stworzenia czegoś, co badacze nazywają "interaktywną platformą do zbierania danych multimedialnych". Dane przetwarzane w ramach platformy będą pozyskiwane z różnych źródeł: przeszukiwanych zasobów sieci Internet, publicznych i policyjnych baz danych, czy właśnie inteligentnych systemów monitoringu. Platforma ma umożliwić integrowanie i szybkie przeszukiwanie wszelkich dostępnych informacji. Być może jest tak, jak przekonują koordynatorzy projektu, że większość rozwijanych technik mających wspierać tę platformę już funkcjonuje. Jednak to INDECT ma ambicje wykorzystać je w ramach jednego spójnego systemu bezpieczeństwa. To zupełnie nowa jakość, a tym samym zupełnie nowa technika nadzoru. Czy jest się czego bać? Bardzo trudno przewidzieć, jak technologie i rozwiązania wypracowane w ramach projektu INDECT będą zastosowane w praktyce. Sami badacze i koordynatorzy projektu nie zajmują się tą długofalową perspektywą. Ich zadaniem jest wypracowanie jak najdoskonalszego produktu. To, na ile ten produkt będzie mógł być wykorzystany w zgodzie z obowiązującym prawem i bez uszczerbku dla praw obywateli, będzie zmartwieniem tych, którzy zdecydują się go wdrożyć (np. policji). Brakuje też refleksji nad zagrożeniami, jakie mogą się pojawić, jeśli te technologie znajdą się rękach prywatnych firm, które nie podlegają kontroli demokratycznej. Warto pamiętać, że INDECT nie wyklucza żadnej możliwości praktycznego wykorzystania rozwijanych technologii: po zakończeniu badań, każdy zainteresowany będzie mógł je kupić i przystosować do swoich celów. Nas - organizację stojącą na straży poszanowania praw człowieka w cyfrowym świecie - najbardziej niepokoi właśnie to, że za publiczne pieniądze rozwijane są narzędzia, które mogą być użyte przeciwko obywatelom, bez refleksji nad tymi zagrożeniami i bez niezależnego nadzoru. W ramach projektu funkcjonuje co prawda Rada Etyki, która ma oceniać potencjalne skutki zastosowania rozwijanych przez INDECT technologii. Nie jest to jednak zewnętrzny "organ kontrolujący", ale wewnętrzne ciało doradcze. Rada nie wnika we wszystkie aspekty projektu – ma za zadanie odpowiadać na pytania i wątpliwości zgłaszane jej przez samych badaczy. Z naszego punktu widzenia największe zagrożenie dla poszanowania praw człowieka niesie ze sobą kluczowe założenie projektu INDECT, czyli profilowanie społeczeństwa na szeroką skalę. Innowacyjność projektu w dużej mierze opiera się na automatycznym namierzaniu osób niebezpiecznych, czyli stanowiących zagrożenie dla innych lub porządku publicznego. System automatycznego wykrywania zagrożeń ma działać w oparciu o listę „podejrzanych zachowań”, czyli o zdefiniowane profile. Kamery monitoringu mają na przykład reagować na to, że ktoś biegnie ulicą, ponieważ poruszanie się z ponadprzeciętną szybkością zostało zdefiniowane jako zachowanie niestandardowe, a tym samym wymagające wzmożonej obserwacji. Nie oznacza to oczywiście, że jeżeli ktoś uprawia jogging to automatycznie zostanie zatrzymany. Musi się jednak liczyć z tym, że z tego powodu będzie uważniej obserwowany. Dla większości z nas to mało komfortowa sytuacja. W dodatku, jako społeczeństwo, nie mamy wpływu na to, jakie zachowania będą wytypowane jako “podejrzane”. Ze względu na tajemnicę działań operacyjnych, nie dowiemy się też, jakie będą zasady działania algorytmów, które determinują automatyczne reakcje systemu. Profilowanie nie będzie się jednak ograniczało do tak prostych czynności, jak przyspieszony ruch na ulicy czy gwałtowny ruch ręką. Dzięki wspomnianej platformie integrującej dane z wszelkich dostępnych źródeł, system ma także typować osoby podejrzane o popełnienie przestępstw. Na oficjalnej stronie projektu INDECT możemy przeczytać, że "jeśli policja otrzymała informacje, o przestępstwach popełnianych przez pedofila na danym obszarze, INDECT umożliwi policji wykrycie osób w danej okolicy wykazujących zachowania typowe dla takich przestępców". Czy faktycznie dysponujemy taką wiedzą, która pozwala nam określić precyzyjną listę zachowań typowych dla przestępców seksualnych? Nawet jeśli w konkretnych sytuacjach tworzenie takich modeli może być przydatne, warto się zastanowić, jaką cenę zapłacimy za to, jako społeczeństwo, i jak poradzimy sobie z nieuniknionymi błędami w działaniu tak wyrafinowanego systemu. Automatyczne profilowanie z zasady jest źródłem nadużyć i pomyłek. Ryzyka i zagrożenia z tym związane ujawniły się we wszystkich znanych systemach opartych na zasadzie profilowania. Dobrym przykładem mogą być amerykańskie no-fly lists. Na takie listy trafiają osoby, które system bezpieczeństwa zakwalifikował jako szczególnie niebezpieczne na podstawie określonych cech, np. zbieżności nazwiska z nazwiskiem osoby podejrzanej o terroryzm. Regularnie zdarza się, że na takie listy trafiają osoby przypadkowe, które w związku z tym nie mogą podróżować samolotem. Żeby doprowadzić do uchylenia zakazu latania, same muszą udowodnić, że są niewinne, co - w braku odpowiednich procedur odwoławczych - okazuje się niezwykle trudne. Zbytnie zaufanie do nieomylności nowych technologii może też osłabić sam system, który w założeniu miał nam zapewnić bezpieczeństwo. Wielu ekspertów ds. bezpieczeństwa przestrzega, że jeśli służby zaczną polegać w przeważającej mierze na działaniu sztucznej inteligencji i algorytmów, w dłuższej perspektywie zatracą zdolność krytycznego myślenia i stosowania tradycyjnych metod śledczych. A to może prowadzić do skutków odwrotnych do zamierzonych. Tę niebezpieczną tendencję potwierdzają regularne doniesienia o błędach, jakie popełniają służby krajów wykorzystujących ogromne ilości danych i techniki profilowania (USA, Wielka Brytania). Być może dlatego polskie Ministerstwo Spraw Wewnętrznych ogłosiło, że Komenda Główna Policji wycofuje się ze współpracy w ramach projektu INDECT. Na konferencji prasowej minister Jacek Cichocki przyznał, że policja już dysponuje wystarczającymi narzędziami do skutecznej walki z przestępczością i nie potrzebuje kolejnych innowacji. Żeby dowiedzieć się więcej o naturze dotychczasowej współpracy Komendy Głównej Policji oraz o powodach jej zerwania, zadaliśmy Ministerstwu Spraw Wewnętrznych szereg pytań w trybie dostępu do informacji publicznej. Jak tylko dostaniemy odpowiedź, wrócimy do tematu. Polecamy również: Oficjalna strona projektu INDECT Gazeta Wyborcza: MSWiA wycofuje się z INDECT. Władza przestraszyła się Orwella Katarzyna Szymielewicz Autorka Temat służby bezpieczeństwo Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Pytamy ABW, jak często inwigiluje bez zgody sądu ABW może inwigilować cudzoziemców bez zgody sądu, jeżeli podejrzewa ich o szpiegostwo lub prowadzenie działalności terrorystycznej. Spytaliśmy Szefa Agencji Bezpieczeństwa Wewnętrznego, ile razy w ciągu ostatnich siedmiu lat skorzystał z tego uprawnienia. 12.02.2024 Tekst Artykuł Raport PEGA: Polsko, mamy problem z inwigilacją „Zakres inwigilacji prawnej w Polsce został rozszerzony do niemal nieograniczonego. Prawa ofiar zostały zmniejszone do minimum, a środki odwoławcze są w praktyce pozbawione sensu” – przyjęty wczoraj raport komisji PEGA potwierdza to, co w Panoptykonie mówimy od dawna: w Polsce mamy problem z… 09.05.2023 Tekst Artykuł Suma naszych strachów. Czego się boimy w związku z kryzysem na granicy? W Fundacji Panoptykon bardzo poważnie traktujemy zobowiązanie, jakim jest nasza misja. Konsekwentnie, od ponad dekady, kontrolujemy kontrolujących – bez względu na ich barwy polityczne. Niezwykle rzadko zabieramy głos w sprawach bezpośrednio z tą misją niezwiązanych. Ale kiedy widzimy, że… 01.10.2021 Tekst