Artykuł 07.11.2018 25 min. czytania Tekst Prowadząca: Katarzyna Szymielewicz Gość: Dominik Batorski Transkrypcja: Przemysław Malinowski, Grzegorz Skrzypkowski Zakres transkrypcji: od 19 do 56 minuty (...) DB: (…) w gruncie rzeczy reklamodawcę mało interesuje to, kim ci użytkownicy są. Nie jest celem samym w sobie, żeby określać ich cechy. Istotniejsze jest, czy chcemy znajdować grupy użytkowników (unikalność pojedynczego użytkownika nie jest zaletą), którzy są do siebie podobni na przykład w zakresie zainteresowania daną kategorią produktów. KS: Reklama chodzi za grupami, a nie za jednostkami. DB: Tak, choć zdarzają się reklamy robione pod konkretne jednostki. Warto przypomnieć, że bodajże w wyborach czy w trakcie kampanii brexitowej w Wielkiej Brytanii jedna z partii emitowała na Facebooku reklamy, które były przeznaczone tylko dla kierownictwa partii. Jej działacze stwierdzili, że na zewnątrz lepiej używać innych reklam, ale kierownictwo się bardzo upierało… KS: Świetny przykład [śmiech]. DB: Zobaczyli zatem reklamy, które były przeznaczone tylko dla nich. Tak więc do pewnego stopnia można robić i takie rzeczy. KS: Facebook pozwala, potwierdzam. Powiedziałeś ważną rzecz: chodzi o efekt skali, o to, żeby reklama docierała do wielu osób, a nie jednej. Tworzący reklamę będą szukali raczej takich cech, które nie są unikatowe. Mogą to być cechy wrażliwe: skłonność do depresji czy to, że jesteśmy w momencie, w którym chcemy się zmieniać życiowo, bo właśnie dziecko albo przeprowadzka, albo nowa szkoła. Mogą to być rzeczy newralgiczne, ale raczej takie, które łączą nas z innymi ludźmi – i jako tacy będziemy targetowani. Nie jako konkretna jednostka, na którą właśnie poluje bank, żeby wcisnąć jej droższą pożyczkę – raczej jako jedna z wielu osób, które są w takiej sytuacji. Nie wiem, czy nas to pociesza, mnie nie. Na gruncie prawa jest to jednak to samo. Dla prawnika stosującego RODO – prawo o ochronie danych osobowych – ważne jest to, czy targetująca firma jest w stanie powiedzieć: „To ten użytkownik, a nie inny”. Z perspektywy prawa nie ma znaczenia, czy firma, która mnie targetuje, wie, że ja jestem Szymielewicz czy Batorski. Ważne jest to, że potrafi odróżnić: „Aha, wróciła ta, która się przeprowadza” albo „Wrócił ten, któremu urodzi się dziecko”. To jest ważne, a nie jakaś unikatowa cecha. Cały czas mówimy o danych osobowych, ale możemy czuć się trochę uspokojeni faktem, że mikrotargetowanie nie jest aż tak wścibskie. Ale czy może być niebezpieczne? Czy może być techniką, która faktycznie prowadzi do takiej ingerencji w nasz dostęp do informacji; w to, co widzimy w sieci; w to, jak myślimy o świecie, że na przykład zmienia nasze poglądy? Zmierzam nieuchronnie do świata polityki, w którym stawka jest wysoka, dużo wyższa niż tam, gdzie wchodzi w grę marketing nowej marki mydła. To dużo większe pieniądze i dużo odważniejsze eksperymenty. Zastanawiam się nad tym, czy kiedy wchodzi w grę wybór prezydenta albo nowej partii rządzącej, możemy spodziewać się w marketingu mikrotargetowania zaprojektowanego tak, żebyśmy rzeczywiście doświadczyli ryzyka zmiany poglądów? DB: Myślę, że to dwie rzeczy. Uważam, że mikrotargetowanie jest bardzo niebezpieczną praktyką i należałoby poważnie dyskutować, czy nie powinna być zakazana. Natomiast to, czy w ogóle (i w jakiej skali) możliwy jest wpływ na zachowania ludzi, to trochę inna kwestia. W moim przekonaniu zmiana poglądów politycznych to coś bardzo trudno osiągalnego i nawet przy dużych kampaniach (było to dobrze badane w przypadku mediów tradycyjnych) osiągnięcie takiego wpływu miałoby niewielką skalę. Znacznie prostsze wydaje się wpływanie na pewne zachowania, na docieranie do osób, które nie mają dobrze ukształtowanych poglądów politycznych, i przekonywanie ich. Jeżeli ktoś ma wyrobione zdanie, to bardzo trudno go przekonać. KS: Ale można go zniechęcić. DB: Zniechęcić można osoby, które raczej nie są zdecydowane. Prawdopodobnie to był najważniejszy czynnik wykorzystany w kampanii prezydenckiej w Stanach Zjednoczonych, gdzie w kluczowych stanach (tak opowiadały osoby robiące tę kampanię) starano się docierać do wyborców Hillary Clinton, ale takich słabo przekonanych – żeby zniechęcić ich do kandydatki i wpłynąć na ich skłonność do pójścia na głosowanie. Myślę, że wpływ na frekwencję wyborczą jest możliwy. Zresztą kilka lat wcześniej Facebook razem z grupą badaczy przeprowadził eksperyment na 62 milionach Amerykanów… KS: Bagatela! DB: …pokazując, że prosta zmiana w interfejsie Facebooka i informacja o tym, że dziś jest dzień głosowania, oraz możliwość oznaczenia się, ale też zobaczenia tego, ilu znajomych i jakie osoby już głosowały, wpływały na frekwencję wyborczą, i to nie tylko na tę deklarowaną – oni starali się również oszacować, czy ten wpływ faktycznie miał miejsce. KS: Zrobili swoje exit poll? DB: Ten efekt został oszacowany na 0,4%. KS: Wow! DB: O 0,4% wyższa frekwencja w grupie, która zobaczyła jednorazowo – przypomnijmy – jakiś tam komunikat, to moim zdaniem dużo. Może się wydawać, że 0,4% to nie jest wiele… KS: Nie wygramy tym wyborów, jeśli mamy kiepskiego kandydata, ale jeśli to jest dobry kandydat… DB: …ale te 4 osoby na 1000 w Stanach Zjednoczonych, gdzie w trzech kluczowych stanach, w których wcześniej wygrywali demokraci, Donald Trump wygrał w sumie różnicą 80 000 głosów (dzięki czemu został prezydentem), przy takim systemie wyborczym mogą mieć zasadniczy efekt. W każdym razie jestem sceptyczny co do możliwości zupełnej zmiany zachowania. Wpłynięcie na wegetarianina, żeby zaczął jeść mięso, nie jest prostą rzeczą. Zrobienie kampanii, że mięso jest super, niespecjalnie w tym pomoże. KS: Jasne. Christopher Wylie, sygnalista, który pracował dla firmy, o której właśnie rozmawiamy, Cambridge Analytica, w wywiadzie dla Guardiana powiedział jednak coś takiego: „Aby zmienić społeczeństwo, musisz zmienić jego najmniejszą jednostkę – człowieka. Jak to zrobić? Podając mu odpowiednio spreparowane informacje”. Zastanawiam się, czy rzeczywiście nie jest to clou tego, o czym rozmawiamy. Nie chodzi oczywiście o reklamę: jeżeli rozumiemy, że to jest marketing, to mamy do tego inny stosunek. Ale jeżeli Facebook czy inne źródło informacji byłoby w stanie na przestrzeni roku budować nasze poglądy na świat i potem odpowiedzieć na to marketingiem, który jest na tym oparty? Załóżmy: mam poczucie, że wszystko zmierza do wojny albo że kluczowym problemem jest globalne ocieplenie – i nagle pojawia się polityk, który dokładnie na tym buduje swój przekaz. Być może w ten sposób mogę nie tyle zmienić czyjeś poglądy, ile wykreować potrzeby. To jak z mydłem: należy stworzyć potrzebę, której nie było, a potem powiedzieć: „To jest właśnie to mydło, którym chcesz się naprawdę umyć!”. To informacje, jakie sączyłam temu człowiekowi przez dłuższy czas, spowodowały, że on w ogóle zapragnął tego mydła. DB: Każdy z nas funkcjonuje w pewnym kontekście informacyjnym. To, że mówimy o tzw. bańkach informacyjnych, jest związane z tym, że często ludzie sięgają po takie treści, które odpowiadają ich poglądom (zjawisko selective exposure). Funkcjonując w określonej przestrzeni informacyjnej, mogą mieć zupełnie różne interpretacje tych samych wydarzeń. Polacy cały czas debatują o tym, co się wydarzyło w Smoleńsku: czy to był zamach, czy katastrofa. To, w jakim kontekście informacyjnym funkcjonują, co myślą ich znajomi, jakie media czytają, ma do pewnego stopnia wpływ na wiarę w jeden bądź drugi scenariusz. Tego typu rzeczy mają istotne znaczenie, natomiast nie ma twardych dowodów na to, że da się utrzymywać kogoś przez dłuższy czas w określonym kontekście informacyjnym i w ten sposób generować taki wpływ. Przechodząc do problemów mikrotargetowania, o których krótko wspomniałem wcześniej: pamiętajmy o tym, jak robione są reklamy w Internecie. To nie jest tak, że ktoś wymyśla reklamę, bierze dane i stara się je tak dobrać, żeby wybrać grupę, do której reklama ma być skierowana. Nie, to się tak nie odbywa. Coraz częściej mamy bardzo dużo danych, które pozwalają wyodrębnić wiele różnych podgrup. Przygotowywanych wariantów kampanii i komunikatów reklamowych jest bardzo wiele. Są one testowane eksperymentalnie – co zadziała. Jaki rodzaj komunikatu w jakiej grupie rezonuje. Sztab Donalda Trumpa chwalił się tym, że w trakcie kampanii wyborczej puszczał od 50 do 60 tys. różnych komunikatów reklamowych na Facebooku dziennie. KS: Tak, podawałam tę liczbę na którymś ze spotkań. Usłyszałam wtedy od ludzi z polskiej branży reklamy, że to żadne duże liczby, że to raczej standard. Może nie w takiej skali, ale rozumiem, że nie tylko D. Trump tak robił – tak robią wszystkie bogatsze firmy: idą w skalę. DB: Facebook ma jedno wymaganie. Te mikrogrupy, do których taki komunikat może być kierowany, muszą liczyć przynajmniej 20 osób. Jeżeli liczą przynajmniej tyle, to wszystko w porządku. KS: To już jest grupa, a nie jednostka. DB: Takie możliwości istnieją. Pamiętajmy też, że Facebook jest platformą, w której działalność reklamowa jest bardzo mocno zautomatyzowana. W tej chwili Facebook ma ponad 7 milionów reklamodawców na całym świecie i oczywiście nie zatrudnia pracowników, którzy… KS: Weryfikują etyczność tych reklam. DB: …przeglądają, co ci reklamodawcy chcą emitować. Nie, to jest samoobsługowa platforma, w której firma, podmiot, osoba ustala, jakie komunikaty reklamowe chce emitować i do jakich konkretnie grup. Nawet nie trzeba mieć jakichś bardzo dużych własnych danych. Facebook daje swoje dane i to, co wie o swoich użytkownikach. Można wykorzystać tę reklamę, targetując. KS: Dopowiem – robiliśmy takie eksperymenty w Panoptykonie. Nie po to oczywiście, żeby żerować na wiedzy o użytkownikach, tylko dokładnie odwrotnie: żeby pokazać im, co się dzieje. Zrobiliśmy w ubiegłym roku kampanię, która była wyjątkowo wredna, bo wykorzystywała wrażliwe cechy. Co prawda, odbyło się to dzięki technikom Google’a, a nie Facebooka. Na Facebooku nie udało nam się tego targetowania przeprowadzić tak, jak chcieliśmy: skierować komunikatu do grup, które mają problemy z depresją, z erekcją, spodziewają się dziecka itp. Tego typu kategorii Facebook nam jako firmie bez swoich dużych danych nie chciał wyświetlić, ale już Google na podstawie historii wyszukiwań i techniki AdWords – jak najbardziej. Wtedy też poznałam dobrze ten facebookowy interface i zorientowałam się, że ja jako gracz, który niczego nie wnosi, jestem skazana na korzystanie z tego, co Facebook wystawia za darmo, czyli takich kategorii demograficznych, które mogę sobie potargetować na przykład po tym, że ktoś był w danym dniu w okolicy Sejmu w Warszawie (w domyśle: może protestował, może ma jakieś poglądy krytyczne wobec rządu), i wysłać komunikat z tym związany. Mogę też targetować ludzi na zasadzie sieci ich znajomych, ale wtedy muszę pokazać, co o nich wiem – czyli powiedzieć „Ja tę grupę już znam, wiem o niej to i to, a teraz Facebooku dopowiedz jakąś kolejną cechę”. A to jest ryzykowne. Mam wrażenie, że na Facebooku wchodzenie w ten ekosystem bez własnych danych ma duże ograniczenia, co więcej: Facebook co chwilę jest konfrontowany z tym, jak jego reklama działa, na skutek krytycznych działań organizacji. W Stanach Zjednoczonych ProPublica parę razy ich docisnęła, pokazując, że pozwalają na reklamę, która wyklucza osoby czarne albo dyskryminuje jeszcze inaczej. Ostatnio Facebook ogłosił, że wycofuje się i usuwa 5 tysięcy kategorii reklamowych, bo uważa, że niosą ryzyko dyskryminacji. Ta liczba jest dość szokująca, prawda? Jeżeli wejdziemy w facebookowy interface, to nie widzimy tylu kategorii. Widzimy może kilkadziesiąt. Gdzie te kilka tysięcy? DB: Tego jest zdecydowanie więcej, bo to na przykład to, co pokazała swego czasu ProPublica: można sobie zbudować kategorię osób nienawidzących Żydów. To jest możliwe, dlatego wykorzystuje się strony polubione przez ludzi na Facebooku. W oparciu o to można się starać budować różnego rodzaju grupy docelowe. Rzeczywiście, mniej więcej w 2015 r. zaszła taka dość duża zmiana. Facebook zaczął udostępniać na zewnątrz mniej danych, a w znacznie większym stopniu zachęcać firmy do tego, żeby wgrywały swoje dane. Te dane, które firmy wgrywają, mogą być bardzo różnego rodzaju. Przede wszystkim mogą to być adresy e-mail czy numery telefonów własnych klientów. Niedawno Niebezpiecznik.pl napisał, że sztab Patryka Jakiego rozesłał maila do jakichś osób zapisanych na newsletter, ale w taki sposób, że adresy wszystkich tych docelowych osób były widoczne dla innych. Tych osób jest kilkaset, więc można te adresy mailowe wgrać na Facebooka i kierować do nich jakieś reklamy. KS: Starać się zmienić ich poglądy. DB: Co więcej: Facebook pozwala znaleźć osoby, które są do nich podobne, czyli tzw. lookalike… KS: Klastrowanie. DB: Dysponując kilkuset adresami e-mail, możemy dojść do grup docelowych, które są znacznie znacznie liczniejsze, ale pod pewnymi względami – podobne do grupy, od której zaczęliśmy. Nie ma kontroli nad tym, na jakiej podstawie te podobieństwa są uwzględniane. Jest to pewnego rodzaju czarna skrzynka, ale pewnie jest to dokładniejsze niż targetowanie kampanii do zupełnie przypadkowych osób. Ja tu widzę też szereg niebezpieczeństw związanych z wykorzystaniem danych. Jakiś czas temu jeden z moich kolegów bardzo się zdziwił, gdy dzień po wizycie u lekarza rzadkiej specjalności dostał na Facebooku reklamę z zaproszeniem do grupy dla pacjentów z problemem, który go spotkał. Zszokowało go, skąd ten Facebook wie, że on był u takiego lekarza… KS: Ja słyszałam o wielu rozmowach tego typu. DB: Oczywiście, nie Facebook to wie, tylko pewnie pracownicy placówki medycznej, do której się udał, prowadzą na Facebooku grupę dla pacjentów… KS: I podpięli jego e-mail lub telefon. DB: Podpięli jego dane i stargetowali mu reklamę z zaproszeniem do tej grupy. KS: Możemy też sobie wyobrazić, że firma taka jak wspomniana przeze mnie Selectivv, która opiera się w dużej mierze na targetowaniu po lokalizacji, mogłaby na przykład targetować ludzi, którzy byli fizycznie w placówce zajmującej się chorobami egzotycznymi czy pomocą psychologiczną. Klucz lokalizacji też mógłby zadziałać, prawda? DB: Akurat na Facebooku opcji targetowania po dokładnej lokalizacji chyba nie ma… KS: Po ulicy i adresie na pewno jest; nie wiem, czy po miejscu w budynku. Sama korzystałam z opcji targetowania ludzi dlatego, że gdzieś byli. Spekuluję, bo to na pewno byłoby trudniejsze niż to, o czym mówisz. Jeszcze dochodzą do tego rozważania na temat tego, czy Facebook nas słucha przez Messengera bądź przez aplikacje, które mają dostęp do mikrofonu. Jak rozumiem, kolega nie mówił o tym w domu (…). DB: Istnieje taki mit, który krąży po Internecie i o którym słyszałem od wielu znajomych. Koleżanka opowiadała mi, że rozmawiała ze swoim partnerem o patelniach, chociaż nie zajmują się gotowaniem, i nagle widziała reklamę patelni czy jakichś garnków na Facebooku. Facebook jednak wielokrotnie zaprzeczał, żeby coś takiego robił. KS: Ale technicznie nie jest to trudne, prawda? DB: Technicznie nie jest to trudne. Co więcej, jeżeli ktoś ma aplikacje Facebooka na swoim telefonie, to wie, że mają one uprawnienia dostępu do naszego mikrofonu. Mogą ten mikrofon w dowolnym momencie włączać. To jest jak najbardziej do zrobienia. Były jednak prowadzone eksperymenty i nic nie wskazuje na to, żeby faktycznie było to wykorzystywane. Jeśli coś nas w telefonach podsłuchuje, to raczej nie Facebook. Pamiętajmy jednak, że bodajże od 2015 r. Facebook ma patenty, żeby włączać kamery w telefonach i w laptopach użytkowników – po to, żeby robić im zdjęcia i na tej podstawie analizować to, jak reagujemy na treść. KS: Badać emocje. DB: Facebookowi zależy na tym, żeby lepiej rozumieć, czy to, co wyświetla, podoba się nam czy się nie podoba. Niestety, same nasze zachowania, lajki i inne reakcje, które zostawiamy pod postami, to zdecydowanie zbyt mało. Facebook ma patenty, ale to, czy ta funkcja faktycznie działa (chociaż teoretycznie mogłaby, a użytkownicy się na to zgadzają, instalując aplikację) – trudno powiedzieć. KS: Tych, których interesuje, jak działa Facebook, jeśli chodzi o tę czarną skrzynkę, odeślę do naszych map, które są publikowane na stronie Panoptykonu. Nazywaliśmy je „algorytmiczną fabryką Facebooka”. Tłumaczą one, co się dzieje pomiędzy sferą pobierania danych o nas a tym, co jest produkowane dla reklamodawców: kategoriami, których są tysiące. Działają tam opatentowane algorytmy. O części z nich wiemy sporo, bo Facebook te patenty musi publikować. Oczywiście ma to miejsce z pewnym opóźnieniem, ale możemy odtworzyć zasadę działania algorytmu, który klastruje użytkowników po to, aby wykryć ich ukryte cechy (polityka, może zdrowie, grupa pacjencka, choroba czy kwestia orientacji seksualnej). Rzeczy, które są ukryte. Można je wyczytać w oparciu o klastrowanie nazw grup i analizę tego, kto z kim się komunikuje, jeżeli którakolwiek z tych osób ujawniła taką cechę wcześniej. Facebook tego zupełnie nie kryje. Wracając jednak do samego mikrotargetowania i polityki: jako badacz i jako Sotrender obserwujesz, co się dzieje na polskim Facebooku. Czy dostrzegasz, że eksperymenty z targetowaniem u nas też mają się dobrze? Czy są realizowane? Chociażby teraz w kampanii samorządowej? DB: Oczywiście. Każdy może to sobie sprawdzić, dlatego że po aferach z Cambridge Analytica Facebook uruchomił taką funkcję jak ViewAdds. Możemy zobaczyć, jakie kampanie w danym momencie prowadzi dana strona. Wchodząc na stronę polityka, który stara się zostać prezydentem miasta, widzimy, jakie komunikaty reklamowe są emitowane. Często tych komunikatów jest bardzo dużo. Mają różne warianty. Nie mamy dokładnych danych, chociaż ja jestem zdania, że powinniśmy mieć absolutną przejrzystość mikrotargetowania i że firmy, które na nie pozwalają, powinny publikować całą bazę danych z treścią komunikatów reklamowych – wraz z informacją, kto za te komunikaty płaci i do jakich grup są one targetowane. Natomiast na razie Facebook pozwala zobaczyć wszystkim to, jakie komunikaty są kierowane na zewnątrz w danym momencie – ale bez informacji o tym, do kogo emitowane są poszczególne warianty. KS: To prawda. DB: Jeśli chodzi o reklamy polityczne, wiem, że Facebook testuje możliwość udostępniania wszystkich komunikatów, które dotyczą kwestii politycznych. Na razie jest to testowane w Kanadzie i Irlandii, więc możemy się spodziewać, że w pewnej perspektywie będzie to dostępne również w innych krajach. KS: Ja robiłam eksperymenty na sobie w Google’u i na Facebooku. Byłam ciekawa, jak daleko mogę dojść, jeśli chodzi o ustalanie mojego profilu reklamowego. Rzeczywiście jest tak, że Facebook idzie tutaj troszeczkę dalej niż Google, bo pozwala mi na swoim przykładzie stwierdzić, dlaczego widzę określoną treść. Jeżeli dzisiaj klikniemy bodajże w prawym górnym rogu komunikatu sponsorowanego (czy reklamy, czy jakiejkolwiek innej treści) – dowiemy się, dlaczego jest do nas wysłany. To nie będzie dokładna informacja, ale zdradzi, czy chodzi o zainteresowanie, czy o porę dnia, czy o lokalizację. Nie mogę tego jednak zrobić dla innych użytkowników. Mogę jedynie zobaczyć, jaka jest skala tego komunikatu. DB: Ale tylko w przypadku komunikatu, który został wyświetlony tobie. KS: Tylko tego? Aha, czyli nie zobaczę, że cała reszta Facebooka widzi coś innego niż ja? DB: Tego nie zobaczysz. Aczkolwiek możesz zobaczyć, że gdy ty widzisz jakąś reklamę z tej strony, ona emituje w tym samym czasie setkę innych. KS: I tę setkę mogę podejrzeć? DB: Tę setkę możesz podejrzeć, zanim przestaną być emitowane. Facebook w ogóle pokazuje coraz więcej różnych informacji. Mówiliśmy wcześniej o wykorzystywaniu adresów mailowych i numerów telefonów komórkowych przy mikrotargetowaniu. Znacznie częściej do mikrotargetowania wykorzystywane są tzw. piksele facebookowe, czyli skrypty zostawiane na stronach internetowych, gdzie indziej w Internecie. Później na tej podstawie wyświetlane są nam reklamy na Facebooku. KS: My nie widzimy tego piksela, bo on jest przejrzysty. DB: Istnieją wtyczki do przeglądarek, które pozwalają nam sprawdzić, że te piksele facebookowe tam są. Ale tak naprawdę wszystkie strony internetowe, na których są wtyczki do Facebooka, albo dostarczają Facebookowi informacji o tym, że my tę stronę internetową odwiedziliśmy, albo z kolei dostarczają tych informacji reklamodawcom. Później reklamodawcy mogą kierować reklamę do osób, które widziały konkretne treści. To działa w przypadku sklepów internetowych i tej lodówki, o której mówiliśmy. Jeśli oglądałaś lodówkę w sklepie internetowym, a na stronie był piksel reklamowy Facebooka, to później ten, kto ten piksel tam zostawił, może kierować do ciebie reklamę tej lodówki w tym sklepie. Jeśli to są jakieś treści polityczne, na przykład ze strony newsowej, która dotyczy kampanii 500+ – to tak, można targetować na Facebooku reklamy osobom, które interesują się 500+. KS: Warto powiedzieć głośno (bo nie każdy może mieć wyobrażenie), że te piksele działają tak, jakbyśmy wchodząc na jedną stronę dowolnej gazety, portalu newsowego, sklepu, odwiedzali nawet tysiące innych. Wchodzimy świadomie w jedno miejsce, chcąc sprawdzić pogodę czy dowiedzieć się, dlaczego jest susza albo jakie poglądy ma partia, na którą rozważamy głosowanie, i nieświadomie wysyłamy sygnał, że tam jesteśmy i to czytamy, wszystkim tym podmiotom, które mają to podpięte pod swoje skrypty śledzące – czy to w formie pikseli, czy wtyczek, czy innych technologii, w których Facebook oczywiście przoduje. Tego może być bardzo dużo. Naturalnie my też możemy to podejrzeć dzięki innego typu wtyczkom, ale sama świadomość, że uruchamiając jedną stronę, de facto wysyłamy sygnał nawet do tysięcy innych – powinna ugruntować się w naszych głowach. Zwykle tak to niestety działa. DB: W tej chwili doskonale pokazało to też RODO. Duże polskie portale internetowe mają całe listy swoich partnerów, których skrypty uruchamiają. Te listy zawierają między 200 a ponad 600 różnych podmiotów, które dowiadują się o tym, że odwiedziliśmy ten właśnie serwis (dla Wirtualnej Polski jest chyba najwięcej, bo ponad 600). KS: Trudniej jest z Facebookiem, który stosuje inną technikę i nie pokazuje swoich partnerów. DB: Wbrew pozorom Facebook pokazuje nam dosyć dużo i chce pokazywać jeszcze więcej. Możemy na Facebooku sprawdzić na przykład to, jakie podmioty dostarczyły o nas dane: czyli jakie podmioty chcą do nas skierować reklamę. Mamy możliwość sprawdzenia, które strony dostarczyły nasz adres mailowy, nasz numer telefonu komórkowego albo gdzieś nas zahaczyły facebookowym pikselem i mogą nam na Facebooku takie spersonalizowane, zmikrotargetowane reklamy komunikować. Gdy po raz pierwszy przeglądałem tę stronę i zobaczyłem kilkaset różnych podmiotów… KS: Nawet ty się zdziwiłeś? DB: Tak. Nie miałem pojęcia, że niektóre z nich mogą mieć moje dane. Bardzo mnie to zdziwiło. KS: A powiedz jeszcze raz, jak dokładnie tam dotrzeć w ramach ustawień Facebooka? Może damy link albo opis? DB: Tak, zdecydowanie możemy dać do tego link. Mogę powiedzieć więcej: to są te informacje, którymi Facebook dysponuje na potrzeby reklamowe. Całkiem dużo o tym, jakie dane Facebook o nas ma, można też dowiedzieć się z zachowań, do których sami mamy dostęp: z tego, co robimy na Facebooku. Co więcej, można te podmioty wykasowywać. Przeklikałem sobie tę listę kilkuset podmiotów i teraz dużo mniej podmiotów może mi na Facebooku uruchamiać to mikrotargetowanie. Jako użytkownicy mamy na to wpływ. Skądinąd wiem, że Facebook pracuje teraz nad rozwiązaniem, które będzie się nazywało ClearHistory i da użytkownikom znacznie dokładniejszą wiedzę o tym, jakie dane są o nich zbierane poza Facebookiem, czyli właśnie na stronach internetowych, przez aplikacje w telefonach komórkowych. Da też znacznie większą kontrolę użytkownikom nad tymi danymi. Natomiast kiedy to wejdzie – trudno powiedzieć. KS: Czekamy, czekamy niecierpliwie. To jest właśnie cześć tej wiedzy, którą staraliśmy się mapować w naszym projekcie odkrywania Facebooka, jego algorytmicznej fabryki, pokazując, ile jest miejsc inputu (ang. input – ‘wkład’), gdy nasze dane wchodzą do ekosystemu Facebooka. Jest ich naprawdę wiele. To, co my świadomie wkładamy, to jest absolutna mniejszość. Punktów dostępu danych: z naszej lokalizacji, z naszych urządzeń, z innych stron przede wszystkim – jest o wiele więcej. To jest świat, który był ukryty. Cieszą mnie te ruchy. Nie cieszą mnie natomiast polskie portale (robiliśmy w Panoptykonie eksperymenty z Interią, Onetem i Wirtualną Polską, o których piszemy na naszej stronie – można to łatwo znaleźć, cały czas eksponujemy wyniki na stronie głównej). Niestety, okazuje się, że portale, które nas profilują, w ramach informacji wynikającej z RODO mówią nam tak: „Uwaga, uwaga, serwujemy dobrane dla ciebie dobre reklamy i prosimy: zgódź się, bo to jest nasz biznes”. Ja nawet bym się chętnie zgodziła, ale ja chcę wiedzieć, jaki ten profil jest, chcę wiedzieć, czy oni mnie widzą. DB: Tak, ale to nie są profile, którymi te portale dysponują. Są to profile, którymi dysponują sieci reklamowe. Tak więc tutaj portal to tylko słup ogłoszeniowy. KS: Tylko punkt wejścia. DB: Sieci reklamowe mają te skrypty, które rzeczywiście są rozsiane po całym Internecie (często na tysiącach stron internetowych) – i zbierają informacje o naszych aktywnościach. KS: Mówiliśmy o tym ekosystemie w poprzednim podcaście, z Maciejem Zawadzińskim, który tłumaczył konstrukcję skomplikowanego zaplecza Internetu. Mówił o data providers, czyli o tych, którzy dostarczają dane. Oczywiście, jesteśmy zgodni, że to oni są źródłem – niemniej jednak ja do nich dostępu nie mam. Jeśli więc portal, który wystawia mnie na słupie, nie jest w stanie przynajmniej odpowiednio mnie skierować, powiedzieć: „Słuchaj, te 20 firm pytaj, a nie nas”, to mamy problem. Dzisiaj rzeczywiście brakuje synchronizacji w zakresie udzielenia dostępu do informacji między stroną, na którą wchodzę, której ufam, którą chcę czytać, a całą tą resztą, która o mnie coś wie. Choć de facto ja nie wiem, że oni o mnie coś wiedzą. Zostawmy jednak ten wątek, bo o nim mówiliśmy sporo w poprzednim podcaście, a Facebook i targetowanie okazuje się być workiem bez dna. Czas nieubłaganie umyka. Myślę, że nie będziemy otwierać dzisiaj wątku tego, jak można wpływać na postawy i zachowania ludzi w sieci nie tyle poprzez targetowanie ich, ile przez tworzenie trendów w debacie publicznej poprzez bootnety czy inne interwencje. Chciałabym otworzyć kolejny cykl podcastów już pod hasłem: „Debata polityczna – jak ona działa, co na nią wpływa”. O dezinformacji, manipulacji i botach będziemy rozmawiać w kolejnym cyklu, który obiecujemy uruchomić na jesieni, również z ciekawymi gośćmi. A może ty, Dominiku, również dasz się zwabić na taką rozmowę – już nie od tej strony targetowania, ale wpływania na debaty innymi technikami? Dzisiaj wystarczy nam już materiału do trawienia wiedzy o reklamie i o tym, co jest możliwe w marketingu. Czuję się zmobilizowana do walki o przejrzystość w tej sferze i o to, by dalej dociskać firmy, żeby mówiły nam więcej (tak jak robiliśmy to do tej pory w Panoptykonie). Widać po Facebooku, że to ma sens, że ta firma ulega, otwiera drzwi szerzej i zaczyna tłumaczyć nam, co robi z naszymi danymi. Chyba wszyscy rozumiemy, że stawka jest wysoka. Bardzo dziękuję, że dałeś nam argumenty i wiedzę, żeby to lepiej zrozumieć. To był podcast Fundacji Panoptykon. Moim gościem był Dominik Batorski. Bardzo ci dziękuję. DB: Dziękuję bardzo. KS: Ja nazywam się Katarzyna Szymielewicz. I na pewno będę jeszcze do was mówić. Tymczasem czekamy na wasze sugestie, komentarze, pytania. Bądźcie z nami, wracajcie. Do usłyszenia! Sprawdź, co wie o Tobie Facebook: [Artykuł] Co wie o nas Facebook? [Video] Monolog Algorytmu Facebooka - jak Facebook przerabia dane użytkowników na swój zysk Sprawdź, kto wyświetla Ci reklamy na Facebooku Jak działa retargeting? Serdecznie dziękujemy Ochotnikom Panoptykonu za pomoc w transkrypcji. Jeżeli Ty również chcesz pomóc nam w transrypcji kolejnych odcinków podcastu, napisz na: fundacja_at_panoptykon.org. Dowiedz się więcej o podcastach Panoptykonu. Maria Wróblewska Autorka Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Krok w kierunku usuwania treści terrorystycznych z Internetu Unijni ministrowie spraw wewnętrznych na ubiegłotygodniowym spotkaniu przyjęli projekt rozporządzenia dotyczącego usuwania z Internetu treści o charakterze terrorystycznym. Teraz propozycja trafi do Parlamentu Europejskiego, który ma kilka miesięcy (na wiosnę kończy się kadencja europosłów) na… 10.12.2018 Tekst Artykuł Czy nowy cyfrowy ład jest możliwy? Wyobraźmy sobie nowy, cyfrowy ład. Taki, w którym ludzie nie są przetwarzani, jak cyfrowa biomasa, ale mają prawo głosu i są w stanie decydować o swoich danych. Dostają usługi, które są dopasowane do ich potrzeb, a jednocześnie bezpieczne. Nie wysyłają ich danych na giełdy reklam, nie śledzą bez… 28.10.2019 Tekst Podcast Projekt Chat Control ma chronić dzieci, ale zagraża szyfrowanej komunikacji. Rozmowa z Michałem „ryśkiem” Woźniakiem Od kilku lat w internecie krąży obrazek autorstwa Johna Jonika. Przedstawiciel amerykańskiej władzy jest w sklepie. Ma przy sobie przy sobie pudełko, w którym znajduje się „kontrola komunikacji w internecie”. Sprzedawca pyta: „jak zapakować – w antyterroryzm czy ochronę dzieci”? 11.01.2024 Dźwięk