Artykuł 28.11.2014 5 min. czytania Tekst Image Kryminały i thrillery pełne są przypadków tworzenia profili przestępców, w tym seryjnych morderców, których udaje się złapać dzięki zaangażowaniu potrafiących „wczytać się” w umysł sprawcy specjalistów. Takie kryminalistyczne „sztuczki” składają się na jedno z wielu możliwych zastosowań profilowania. W filmach z gatunku science fiction możemy obserwować inne jego wykorzystanie: typowanie osób, które (jeszcze) nie zrobiły nic złego, a mogą być zagrożeniem dla istniejącego lub przyszłego porządku, oraz przewidywanie ich zachowań. „XXI wiek to cyfrowa księga. Zola nauczył Hydrę, jak z niej czytać. Rachunki bankowe, wyniki badań medycznych, wyniki głosowań, e-maile, telefony, wyniki uniwersyteckich egzaminów. Algorytm Zoli dokonuje oceny przeszłości ludzi, by przewidzieć ich przyszłość”. Gdy słowa te padają w drugiej części filmowych przygód Kapitana Ameryki, w głowie zaczyna kołatać pytanie: czy mamy do czynienia z tylko fantastycznym „wynalazkiem”, który być może zostanie upowszechniony w przyszłości, a może to obraz lekko podkoloryzowanych, ale już dostępnych możliwości działania wszechobecnych algorytmów? Postępowanie Hydry – organizacji, która w sekrecie pragnie przejąć władzę nad światem: wyeliminować niepokornych, a pozostałych zniewolić – bardzo łatwo jednoznacznie ocenić. Prognozowanie zachowań ludzi na podstawie pozostawionych przez nich cyfrowych śladów jest w tej sytuacji zagrożeniem dla wolności jednostki i całego społeczeństwa. Co jednak gdy po takie same lub zbliżone metody sięga ktoś inny: bank, firma reklamowa czy władze państwowe? Wciąż mało kto oburza się takimi praktykami lub chociaż zastanawia nad ich konsekwencjami. Jak to wygląda w naszym codziennym życiu? Analiza danych z wyszukiwarki internetowej czy aktywności na portalach społecznościowych pozwala na zebranie wielu informacji o nas samych, naszych zainteresowaniach, poglądach politycznych czy preferencjach seksualnych. Na każdym kroku zostawiamy jednak wiele więcej informacji o sobie – i to nie tylko w świecie wirtualnym. Połączenie ich wszystkich (Big Data) daje bardzo cenną wiedzę, z której korzysta przede wszystkim wielki biznes. Zbieranie i analizowanie informacji o użytkownikach różnych usług jest ogromnie popularne w marketingu, bankowości i ubezpieczeniach. Pomaga zastąpić skierowane do ogółu (czy też grupy) reklamy spersonalizowaną ofertą. Dzięki algorytmom określa się, jaki produkt powinien trafić w gusta konkretnego klienta i – dzięki temu – łatwo się sprzedać. Pomagają one też szybko określić zdolność kredytową i podjąć decyzję, czy „warto” sprzedać komuś ubezpieczenie. Dzięki nim wyszukiwarka zapamiętuje historię zapytań i na tej podstawie dobiera konkretne wyniki, księgarnia internetowa podsyła ofertę książek, które – wziąwszy pod uwagę nasze poprzednie zakupy – powinny nas zainteresować, a bank na podstawie wyciągów z kart kredytowych… może przewidzieć nawet nasz rozwód. Zwolennicy Big Data powiedzą, że takie działanie służy wychodzeniu naprzeciw potrzebom klienta – tworzeniu produktów „szytych na miarę”. A że jednocześnie zwiększa efektywność działania i przychody firmy – zyskują na tym wszyscy. Czy to jest aż tak proste? Jeśli profil stworzony przez sklep internetowy jest zgodny z naszymi rzeczywistymi zainteresowaniami, to otrzymamy ofertę przedmiotów i usług, które mogą nam się przydać, a będą na wyciągnięcie ręki – wystarczy jedno kliknięcie. Co jednak gdy „szyte na miarę” reklamy zaczną decydować o naszych zainteresowaniach? Albo okaże, że oferta oparta na profilowaniu jest znacznie mniej korzystna od tej, którą by nam przedstawiono bez jego stosowania, bo dzięki zebranym informacjom stało się jasne, że bardzo zależy nam na jakimś produkcie. A co jeśli nasz „utkany” z danych obraz odbiega od rzeczywistości: ktoś się zwyczajnie pomylił, algorytm jest wadliwy, błędnie łączy informacje i wyciąga mylne wnioski? W takim wypadku proponowany produkt może nie trafić w nasze gusta. Ale możemy też zostać potraktowani jak klienci trzeciej kategorii – nie dostaniemy kredytu lub ubezpieczenia. Nie tylko biznes wykorzystuje zbierane informacje do przypisywania poszczególnym osobom pewnych cech i przewidywaniu na tej podstawie przyszłych zachowań. Coraz odważniej zaczyna z nich korzystać państwo, choć w wielu przypadkach nie jest tak sprawne jak wielkie korporacje. Zaczyna profilować bezrobotnych – żeby „lepiej” wychodzić naprzeciw ich potrzebom, pasażerów linii lotniczych (PNR) – by przeciwdziałać zamachom terrorystycznym, czy przechodniów obserwowanych przez miejski monitoring – po to by wyłapać z tłumu tych, których zachowanie odbiega od normy. Praktyki polegające na dostosowywaniu reklam do odbiorców i typowaniu niebezpiecznych osób z pozoru wydają się bardzo od siebie odległe. W obu przypadkach mamy jednak do czynienia z takim samym sposobem tworzenia profili: na podstawie pewnych informacji o jednostkach przewiduje się ich przyszłe zachowania. Ten mechanizm może być używany przez wiele podmiotów, również odpowiedników filmowej Hydry. „Wróżenie z danych” może zostać wykorzystane do usunięcia niewygodnych jednostek czy manipulacji całą populacją. Jest jeszcze jedna ważna cecha, która łączy różne przypadki tworzenia profili. Algorytmy, które decydują o tym, do jakiej „szufladki” trafiamy, to zazwyczaj pilnie strzeżony sekret. Trudno się zorientować, z jakich danych rzeczywiście korzystają, jak je łączą i jaki wyłania się z nich obraz. Decyzje o tym, kto dostanie „dobrą”, a kto „złą” ofertę, jakie zachowanie zostanie uznane za odbiegające od normy, zaczynają zapadać gdzieś poza nami. Jak w filmowej rzeczywistości Kapitana Ameryki, gdzie o tym, kto stanowi zagrożenie, decyduje komputerowy algorytm lub jak w „Raporcie mniejszości”, gdzie parapsychologiczny jasnowidz wskazuje przyszłych przestępców. W obu przypadkach decyzja zapada w tajemniczy, niejasny sposób, pozbawiając bohatera możliwości obrony, a nawet szansy zorientowania się, co tak naprawdę się dzieje. Dla nas to wciąż nierealna perspektywa, jednak stopniowe ograniczenia możliwości wyboru jest scenariuszem, z którym musimy się liczyć. Filmowa Hydra przekonała się, że odebranie ludziom wolności siłą budzi ich sprzeciw, skuteczniej jest przekonać ich, by sami z niej zrezygnowali. Anna Walkowiak Tekst powstał w ramach projektu „Cyfrowa Wyprawka dla dorosłych 2” współfinansowanego przez Ministerstwo Administracji i Cyfryzacji oraz indywidualnych darczyńców Fundacji Panoptykon. Polecamy inne artykuły z serii edukacyjnej Fundacja Panoptykon Autor Temat bezpieczeństwo profilowanie Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Sprawdź, które partie wzięły sobie ciebie za cel Wtyczka „Kto cię namierzył” zachowuje wszystkie reklamy i posty sponsorowane, które były skierowane do jej użytkownika na Facebooku (również te, które nie dotyczą polityki). Krok po kroku będziemy odtwarzać przepis na polską wyborczą parówkę. 12.09.2019 Tekst Podcast Namierzeni. Rozmowa z Adamem Hofmanem o marketingu w sieci W dzisiejszych czasach trudno jest oddzielić politykę od marketingu politycznego. W tej rozmowie skupimy się na tym drugim. Jak dotrzeć z odpowiednim komunikatem do konkretnej osoby przed komputerem? Jak dokładnie można ją stargetować? Czy wiadomo, o czym myśli, co ukrywa? O bazach danych,… 10.10.2019 Dźwięk Podcast Czy wywiadowi można ufać? Rozmowa z płk. Grzegorzem Małeckim Złamanie kodu Enigmy, operacja Samum i… właściwie o polskim wywiadzie wiadomo niewiele więcej. A to fatalna wiadomość. O to, dlaczego tajność nie służy polskim służbom, czy to możliwe, że polski wywiad kupuje sprzęt medyczny (maseczki i respiratory) dla Ministerstwa Zdrowia i jakie zagrożenia… 22.10.2020 Dźwięk