Artykuł 29.07.2022 5 min. czytania Tekst Image Sprawozdawczyni komisji LIBE w Parlamencie Europejskim przedstawiła projekt poprawek do rozporządzenia Unii Europejskiej o przejrzystości i targetowaniu reklamy politycznej. W projekcie znalazły się poprawki, o które walczyliśmy! Nakładają one na reklamodawców prowadzących kampanie polityczne m.in. ograniczenia w targetowaniu czy zakaz wykorzystywania danych o użytkownikach w czasie optymalizacji reklam. Potrzeba zmian w internetowych reklamach partii politycznych w Unii Europejskiej dała o sobie wyraźnie znać w 2018 r., czyli w momencie ujawnienia skandalu Cambridge Analytica. Na podstawie danych zebranych z Facebooka firma ta tworzyła profile psychometryczne konkretnych użytkowników i wykorzystywała je w celach reklamowych podczas kampanii prezydenckiej w USA czy w czasie brexitu. Unia Europejska nie przygotowała wtedy konkretnych rozwiązań prawnych, licząc na dobrą wolę wielkich platform i ich chęć walki z dezinformacją. Dziś wiemy, że to nie wystarczy – cybergiganci chowają decyzje biznesowe za algorytmami analizującymi niewyobrażalnie wielkie zbiory danych i przez to wymykającymi się kontroli. To niebezpieczna sytuacja, w której można manipulować obywatelami, trzeba tylko zapłacić platformie, dostarczyć odpowiednie informacje i skorzystać z konkretnych narzędzi. Użytkownicy nie chcą mikrotargetowania Rozporządzenie o przejrzystości i targetowaniu reklam politycznych w UE ma być odpowiedzią na rosnące obawy względem działania platform [link do projektu]. Przedstawia ono obowiązki i ograniczenia dotyczące wydawców reklamy, definiuje także sam termin „reklama polityczna”. Zmiany dotyczą nie tylko partii politycznych, ale także wydawców i całej branży marketingu digital. Regulacje to tylko wstęp do naprawienia sytuacji całego rynku. Wielokrotnie zwracaliśmy uwagę na kwestię algorytmów żerujących na wywnioskowanych przez platformy danych oraz na nieprzejrzysty sposób działania rekomendacji treści. Branża po prostu musi się zmienić, by nie szkodzić. Nie jesteśmy osamotnieni w naszej chęci zmiany! Jak podaje European Partnership for Democracy (EPD), obywatele i obywatelki UE chcą uregulowania reklam, w szczególności politycznych. 83% respondentów popiera ograniczenia w mikrotargetowaniu, a 70% opowiada się za ścisłymi ograniczeniami takich praktyk. Zmiana myślenia o mechanice marketingu online W lipcu, Anna Donath, sprawozdawczyni z komisji LIBE (Komisja Wolności Obywatelskich, Sprawiedliwości i Spraw Wewnętrznych), która odpowiada za projekt rozporządzenia w zakresie targetowania reklam, przedstawiła propozycję swoich poprawek. Wśród nich znalazły się te, które proponował Panoptykon w koalicji z EPD (pdf, poprawki 64–69). Sprawozdawczyni przychyliła się więc do proponowanej przez nas zmiany myślenia o zarządzaniu reklamami. Tekst Komisji Europejskiej zawierał podział na targetowanie (dobieranie grupy odbiorców przez reklamodawców) oraz amplifikację, czyli zwiększanie zasięgu komunikatu. Poprawki zamiast amplifikacji proponują „techniki dostarczania reklamy” (optymalizację komunikatu przez platformy). Proponowane zmiany dotyczą także ograniczeń w zakresie wykorzystywania danych o odbiorcach ze względu na sposób pozyskiwania. W marketingu digital dane pozyskiwane są w trzech zakresach: dane deklarowane (provided data) przez użytkownika lub użytkowniczkę wprost, np. w formularzu lub podczas tworzenia konta; dane zaobserwowane (observed data), czyli dane o zachowaniu użytkownika na stronie oraz pochodzące z innych źródeł, np. z wyszukiwarek internetowych; dane wywnioskowane (inferred data) – na podstawie dużych zbiorów danych algorytmy platform reklamowych mogą wywnioskować zainteresowania, poglądy polityczne albo sytuację społeczną użytkownika. To rozróżnienie pozwala na rezygnację z podziału na dane zwykłe i wrażliwe, który nie przystaje do warunków internetowych, gdzie najwięcej kontrowersji wzbudza sam sposób zbierania, a później przewidywania informacji. Zakaz wykorzystywania danych w reklamach politycznych? W skrócie: sprawozdawczyni LIBE zgodziła się, że możliwość wywnioskowywania na podstawie zachowania czy poglądów użytkowników nie jest sytuacją, którą należy zaakceptować. Partie polityczne i działacze powinni korzystać z danych o użytkownikach w minimalnym stopniu. W praktyce to podejście zmienia logikę sposobu profilowania reklam. Przy targetowaniu komunikatów na użytkowników reklamodawcy polityczni mogliby korzystać wyłącznie z danych deklarowanych przez użytkowników czy użytkowniczki. Dane te są zawężone do wieku, płci, języka oraz lokalizacji na poziomie jednostek administracyjnych (np. gminy, województwa). Nie mogliby więc korzystać z danych o zachowaniu użytkownika ani z danych wywnioskowanych przez platformy na podstawie różnych źródeł. Większe ograniczenia dotyczyłyby późniejszej optymalizacji komunikatów, którą to pracę wykonują platformy reklamowe. Zaakceptowana w projekcie raportu Anny Donath propozycja poprawek Panoptykonu i EPD zakłada zakaz wykorzystywania jakichkolwiek danych. Jeśli zgłoszone w raporcie sprawozdawczyni poprawki zostaną przyjęte po wakacjach przez komisję LIBE, a następnie w głosowaniu plenarnym PE, da to realną nadzieję na porządną regulację wykorzystywania danych na potrzeby reklamy politycznej w sieci. Droga do tego nie jest prosta: do stanowiska europosłów trzeba będzie przekonać jeszcze pozostałe instytucje (Komisję i Radę UE) w tzw. trilogu. Rozporządzenie jest tylko częścią zmian w UE, które będą dotyczyć kształtu Internetu w najbliższych latach. Za nami rewolucja cyfrowa (akty DSA i DMA), a przed nami: AI Act (akt o sztucznej inteligencji). Polecamy: Kto (naprawdę) cię namierzył? Algorytmy traumy. Sprawdziliśmy, czy możesz kontrolować reklamy na Facebooku DSA i DMA w pigułce – co warto wiedzieć o prawie, które ma poskromić cybergigantów UE reguluje sztuczną inteligencję: znamy pierwsze poprawki do AI Act Dominika Chachuła Autorka Dorota GłowackaWspółpraca Temat nowy cyfrowy ład Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Podcast Jeszcze uwodzenie czy już wykorzystanie? O mediach społecznościowych. Rozmowa z Magdaleną Bigaj Dziś w podcaście gości Magdalena Bigaj, współautorka badań nad higieną cyfrową, założycielka i prezeska Instytutu Cyfrowego Obywatelstwa, autorka książki Wychowanie przy ekranie. Jak przygotować dzieci do życia w sieci? W rozmowie z Katarzyną Szymielewicz mówi o teście higieny cyfrowej i… 06.04.2023 Dźwięk Podcast Algorytmy Traumy. Jak Facebook karmi się twoim lękiem Zapraszamy na odcinek specjalny, połączony z premierą badania Fundacji Panoptykon „Algorytmy Traumy 2” we współpracy z Piotrem Sapieżyńskim z Northeastern University. 07.12.2023 Dźwięk Artykuł Strategia Cyfryzacji Polski. Komentarz Panoptykonu Ryzykując brak okrągłych liczb na promocyjnych slajdach, wolałabym, żeby wicepremier odważnie nazwał problemy, jakie nowa strategia ma rozwiązać. 12.11.2024 Tekst