Artykuł 07.02.2018 12 min. czytania Tekst Image O tym, jak algorytmy poznają tajniki naszej osobowości i czy można je oszukać, mówi dr Patrycja Rudnicka w wywiadzie z Izabelą Meyzą specjalnie dla Fundacji Panoptykon.Izabela Meyza: W tradycyjnym rozumieniu psycholog spotyka się z człowiekiem: rozmawia, obserwuje go, stawia diagnozy. Czy Internet daje równie dobre możliwości poznania człowieka?Dr Patrycja Rudnicka: W psychologii najczęściej dowiadujemy się czegoś o człowieku w sposób zapośredniczony. Jako badaczka mogę analizować Pani zachowanie lub poprosić o wykonanie testu. Na podstawie zdobytej wiedzy wyciągam wnioski odnośnie Pani psychiki. To samo można robić w Internecie. Badane są tu zarówno ślady behawioralne, czyli to, co Pani robi, jak i leksykalne – to, co Pani mówi lub pisze. W sieci dane są wprawdzie bardziej rozproszone, ale można do nich dotrzeć, przyglądając się Pani aktywności na portalach społecznościowych czy w aplikacjach, ale też zbierając metadane z urządzeń, z których Pani korzysta. Siła badania psychologicznego przez Internet opiera się na analizie dużej ilości danych zebranych z różnych źródeł.Wystarczą dane i dobry algorytm, żeby stworzyć mój profil psychologiczny?Algorytm może rozpoznać kluczowe składniki Pani osobowości – to, czy jest Pani ekstra- czy introwertyczna, czy ma Pani skłonności neurotyczne albo czy jest Pani ciekawa nowych doświadczeń. Na podstawie Facebookowych lajków możliwe jest między innymi określenie poziomu Pani satysfakcji z życia, zaangażowania w pracę, skłonności do korzystania do z używek, a nawet tego, czy Pani rodzice się rozwiedli. Nawet jeżeli o żadnej z tych rzeczy nie napisze Pani wprost.W badaniach psychologicznych wykorzystuje się także zdjęcia. Michałowi Kosińskiemu i Ylunowi Wangowi z Uniwersytetu w Stanfordzie na podstawie komputerowej analizy fotografii udało się określić orientację seksualną użytkowników jednego z portali randkowych. Algorytm IBM umożliwia natomiast identyfikację potrzeb i wartości danej osoby na podstawie analizy tekstu online.Czy algorytm może mnie poznać na tyle, by określić, co czuję w danym momencie?Jest to możliwe dzięki analizie ekspresji na Pani twarzy. Systemy, które to robią, od lat są zresztą udoskonalane. Można je także wprowadzać w różnych kulturach, bo mikroekspresja emocji jest uniwersalna dla wszystkich ludzi.To, czego dowiemy się z obrazu twarzy, możemy potwierdzić, dokonując analizy leksykalnej Pani wpisów na Facebooku czy twittów. Przykładowo rozwijane przez Google rozszerzenie do przeglądarek DeepBreath ma za zadanie mierzyć siłę emocji we wpisach i ewentualnie doradzać użytkownikowi przemyślenie ich wysłania.A co jeśli tylko udaję, że jestem szczęśliwa?Udawana radość ma inny obraz mięśniowy niż prawdziwa i algorytmy analizujące fotografie to wiedzą.Niektóre z nich zresztą nie tylko rozpoznają emocje, ale też mogą nimi zarażać. Facebook przeprowadził eksperymentalne badanie, które polegało na manipulowaniu treścią feeda – części ludzi prezentowano treści bardziej negatywne, innym – pozytywne. Następnie sprawdzano, czy oglądający negatywny przekaz są skłonni do zamieszczania bardziej pesymistycznych treści, a pozytywnie stymulowani - bardziej optymistycznych. Mimo że ze statystycznego punktu widzenia rezultaty nie były spektakularne, setki ludzi w swoich wpisach dały wyraz stymulowanym emocjom.Jak dokładnie tworzy się profil psychologiczny użytkownika?Świetnie obrazują to popularne Facebookowe kwestionariusze – niektóre z nich to tylko psychozabawy, ale część stanowią prawdziwe testy. Nawet te, które mogą wydawać się zabawne, niosą twórcom sporo informacji. Dodatkowo kiedy rozwiązuje Pani taki test, przeważnie zgadza się Pani na udostępnienie dodatkowych informacji na swój temat: lokalizacji, lajków, wieku czy zainteresowań. Uzyskane w ten sposób dane są analizowane, a następnie łączone z innymi danymi: informacjami dotyczącymi logowania, historią wyszukiwań czy tym, co udostępniamy aplikacjom. Portale społecznościowe, dysponując ogromną ilością danych posiadaczy kont oraz potencjalnie nieograniczonymi możliwościami ich zakupu z innych źródeł, np. od operatorów kart płatniczych czy brokerów danych, wpuszczają je w algorytm, który następnie próbuje znaleźć połączenia między nimi. Im więcej informacji na nasz temat uda się zebrać, tym dokładniejszy obraz naszej osobowości można stworzyć.Robione w sieci testy psychometryczne są naukowo rzetelnym narzędziem. Używa się tu podobnych metod, jak w tradycyjnej psychologii: zaawansowanych technik statystycznych i eksploracji danych (ang. data mining) oraz osiągnięć sztucznej inteligencji.Jednak Internet to także przestrzeń kreacji. Na portalu randkowym będę prezentowała się inaczej niż w kontakcie z pracodawcą. W końcu - mogę podawać nieprawdziwe lub sprzeczne informacje o sobie. Podobnie jak w realnym życiu. Twórcy algorytmów radzą sobie z tym bez problemu, łącząc rozproszony obraz Pani osoby w jeden profil, korzystając ze wszystkich możliwych źródeł.Co dalej robi się z wynikami badań?Celem większości procesów badawczych jest poszukiwanie pozornie nieoczywistych połączeń pomiędzy cyfrowymi śladami a rzeczywistymi cechami i zachowaniami oraz testowanie możliwości wpływu na przyszłe zachowania.Najczęściej jednak profil psychologiczny wykorzystywany przez przy mikrotargetingu, czyli personalizowaniu reklam w taki sposób, by pasowały do Pani osobowości. Jeżeli w badaniach okaże się, że jest Pani introwertyczką, dostanie Pani inną wersję reklamy niż ktoś wykazujący zachowania ekstrawertyczne. Oczywiście pomiędzy introwertycznością a ekstrawertycznością jest całe spektrum nasilenia tych cech, dlatego mikrotargeting najlepiej się sprawdza w przypadku osób, które znajdują się na jego krańcach.Znam osoby, które mówią: nie mam nic przeciwko reklamom szytym na miarę.Tyle, że na tym się nie kończy. Personalizacja na podstawie analizy cech osobowościowych oznacza także, że obiektywne poznanie jakiegoś zagadnienia staje się coraz trudniejsze. Zarówno w mediach społecznościowych, jak w przeglądarkach, oferuje nam się informacje, które pasują do naszych poglądów. Jeżeli uświadomimy sobie, że o tym, co wyświetla się na naszym profilu, w dużej mierze decyduje algorytm, widzimy, jak ogromnym narzędziem wpływu dysponują portale społecznościowe.Badania osobowości wykorzystywane są także w mikrotargetingu politycznym w celu dostosowania komunikatów do cech wyborców. Firma Cambridge Analytica, o której zrobiło się głośno przy okazji kampanii prezydenckiej Donalda Trumpa, próbowała prawdopodobnie za pomocą algorytmów wyszukiwać osoby z niską potrzebą poznania, czyli takie, które nie weryfikują, ani nie podważają zasłyszanych informacji, a dokonując wyborów opierają się raczej na emocjach niż na faktach. Powstaje pytanie, czy wyłapywanie takich ludzi z intencją wpływania na ich wybory jest etyczne? Jeśli identyfikujemy osoby, które są szczególnie podatne na emocjonalny przekaz i to wykorzystujemy, wkraczamy na terytorium inżynierii społecznej.Podam także inny przykład z Australii. We wrześniu minionego roku w tamtejszych mediach pojawiły się publikacje twierdzące, że Facebook wyszukiwał nastolatki z niską samooceną w celu lepszego targetowania reklam. Portal opublikował odpowiedź, w której zaprzeczył targetowaniu, ale i pośrednio potwierdził swoje możliwości w zakresie „pomagania marketingowcom w rozumieniu ekspresji” użytkowników. Takie działania portali społecznościowych niosą szereg wyzwań etycznych. Co jeśli na podstawie analizy danych algorytm stwierdzi, że ktoś przechodzi przez trudny okres? Czy uruchomi program wsparcia społecznego i np. wyświetli reklamę terapii, czy będzie eksploatował czyjąś słabość?Powiedziałabym, że już samo reklamowanie konkretnej formy terapii osobie przeżywającej trudności jest praktyką wątpliwą etycznie.Tyle że kiedy podpisuje Pani regulamin Facebooka, wyraża Pani zgodę na podobne praktyki. Ważne jest, komu portal udostępnia te dane. Jeżeli firma ubezpieczeniowa dysponuje badaniami, z których wynika, że jest Pani depresyjna, może podnieść Pani składkę. Sklep internetowy – chcąc poprawić Pani humor – może zachęcać do niepotrzebnych zakupów. Czy posiadając tak ogromną wiedze na Pani temat, ktoś będzie chciał pomóc, czy raczej wykorzystać to przeciwko Pani? Tego nie wiemy.Istotne jest również, czy zebrane dane będą weryfikowane po upływie jakiegoś czasu, czy też przekształcą się w trwałe etykiety. Ten drugi scenariusz jest nie tylko niekorzystny dla użytkowników, ale też nieetyczny.Czy zdarza się, że algorytmy mylą się w swoich przewidywaniach?Algorytmy tworzą ludzie, którzy czasem przenoszą na nie swój sposób patrzenia na świat oraz uprzedzenia. Są one także wrażliwe na różnice etniczne, zależą od języka czy kultury. Algorytm, który świetnie działa w anglojęzycznym Internecie, może mylić się, badając polskojęzycznych użytkowników.Poza tym jeśli dane początkowe będą stronnicze, czyli będzie w nich na przykład przewaga przedstawicieli określonych grup (np. mężczyzn, osób o określonym wykształceniu, pochodzeniu itp.), algorytm stanie się równie uprzedzony. Cathy O’Neil w książce „Broń matematycznej zagłady” przywołuje przypadek algorytmów wykorzystywanych w rekrutacji, które po takim niedoskonałym treningu pomijają mniej typowych kandydatów, mających „nieodpowiednią” płeć, imię czy historię.Z reguły jednak skuteczność algorytmów jest duża. Kiedy porównano prawdziwość prognoz dokonanych przez maszyny z tymi robionymi przez kolegów z pracy, okazało się , że te pierwsze były bardziej trafne. Dobra wiadomość – potwierdzona przez badania – jest taka, że w konfrontacji z tym, co wiedzą o nas małżonkowie, algorytmy jednak przegrywają.Czy są skuteczne sposoby, by je oszukać?Może Pani się starać zachowywać tak, żeby nie pasowało to do wzorca, którym ktoś je wcześniej nakarmił. Zdarza się, że analizując Pani Facebookowe polubienia, algorytm błędnie poda Pani płeć, jeśli uzna, że Pani zainteresowania nie należą do typowych dla kobiet.Pomocne mogą być taktyki anonimizujące działania w sieci, czyli korzystanie z VPN czy Tora. Warto zabezpieczyć swoje zdjęcia grafikami, które sprawią, że twarz będzie nieczytelna dla algorytmów rozpoznających emocje lub w ogóle ograniczyć liczbę zamieszczanych w sieci fotografii. Można też dokonać przeglądu zainstalowanych aplikacji pod kątem funkcji śledzących. Wielu z nich udostępniamy informacje dotyczące lokalizacji czy kontaktów, dostarczając w ten sposób kolejnych danych do analizy. Wątpię jednak, że chowanie się przed algorytmem na dłuższą metę jest możliwe. Nie zadziała to zwłaszcza w przypadku osób, które były aktywnie w sieci przez dłuższy czas i nagle zechcą się ukryć.Zdaje się, że wielkimi krokami zbliżamy się do Orwellowskiej rzeczywistości. Jak życie w erze Big Data wpływa na naszą kulturę?Konsekwencje objawiają się szeroko. Spójrzmy chociażby na kwestię pamięci. W kulturze gromadzenia i analizy danych informacje są szczegółowo zapamiętywane, wciąż dostępne i precyzyjnie zlokalizowane. Jak ludzie odnajdą się w świecie, w którym nie ma zapominania – tego jeszcze nie wiemy.Nie bez znaczenia jest też fakt, że żyjemy w rzeczywistości, gdzie zarówno nasze publiczne, jak i prywatne „ja”, są dostępne szerokiemu gronu odbiorców, których nigdy nie widzieliśmy na oczy. Na pewno powinniśmy przemyśleć, jak w świecie permanentnej inwigilacji możemy zatroszczyć się o prywatność, która jest ważną potrzebą wszystkich ludzi.Trudno chronić prywatność, jeśli w obszarze badań psychometrycznych panuje tak duża samowola. Nie mamy wpływu na to, kto ma dostęp do informacji o nas i co z nimi zrobi. Czy według Pani obszar ten wymaga jakichś regulacji?Regulacje prawne są niezbędne, choćby dla większej równowagi w relacji portali społecznościowych i ich użytkowników. Dziś jako użytkownicy Facebooka nie możemy w pełni zarządzać swoimi danymi, nie mamy też wglądu w stworzony na ich bazie profil psychometryczny opisujący nasze zachowania, preferencje i cechy osobowości. Trudno jest jednak tworzyć prawo działające skutecznie w konfrontacji z marketingiem i polityką, które korzystającą na rozwoju sztucznej inteligencji i badań psychometrycznych.Poza tym niektóre praktyki, jak identyfikacja twarzy, stają się coraz bardziej powszechne. Czy możemy zakazać Facebookowi takiej identyfikacji, skoro ta technika używana jest też na lotniskach? Może zamiast ograniczać technologie powinniśmy ustalić, że użytkownicy mają dostęp do wyników badań na swój temat oraz wiedzą, w jaki sposób są one wykorzystywane.Pozostaje mieć nadzieję, że są obszary ludzkiej psychiki, których algorytm nigdy nie odgadnie.Najtrudniejsze do zbadania pozostanie to, co zrobimy pod wpływem silnych emocji. Na podstawie analizy cech osobowości można wprawdzie stworzyć kilka scenariuszy i oszacować prawdopodobieństwo pewnych zachowań, ale dynamikę takich wydarzeń algorytmowi trudno jest przewidzieć. Czy dla ochrony wartości będziemy zdolni do dokonania przemocy? Jak zachowamy się w sytuacji zagrożenia życia? Tyle że tego nie wiemy o sobie nawet my sami.Przykładowe aplikacje, które pokazują działanie algorytmów, badających nasze emocje czy osobowość:Applymagicsauce.com – analiza danych z Facebooka, Twittera lub próbek tekstuIBM Watson Personality Insights – przewidywanie na podstawie tekstuAffectiva – rozpoznawanie emocji w czasie rzeczywistymZainteresował Cię ten materiał? Pomóż nam tworzyć więcej takich. Wpłać darowiznę na konto Fundacji Panoptykon i przekaż nam 1,5% swojego podatku (KRS: 0000327613). Anna Obem Autorka Temat algorytmy Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Raport Algorytmy uczenia maszynowego w komunikacji z konsumentami. Jak i po co o nich mówić? Wnioski z badania 13.02.2022 Tekst Artykuł Twoje social media. Sprawdzamy je po roku od przyjęcia nowej konstytucji Internetu Akt o usługach cyfrowych (DSA) miał zmienić zasady gry, zwłaszcza na największych platformach internetowych, czyli VLOP-ach. Przyjrzeliśmy się, co w rok od przyjęcia DSA zmieniło się w działaniu systemów rekomendacyjnych trzech platform: YouTube’a, Facebooka i TikToka. 23.10.2023 Tekst Podcast Algorytmy dyskryminują kobiety. Jak to zmienić? Rozmowa z Olgą Kozierowską Kilka lat temu firma Amazon zaliczyła wizerunkową wpadkę, kiedy wyszło na jaw, że testowany przez nich system wspierający rekrutację wyraźnie dyskryminował CV kobiet. Jak zwykle w takich przypadkach okazało się, że zawinił brak refleksji nad danymi, na których uczył się rekrutacyjny algorytm. 09.03.2023 Dźwięk