Artykuł 23.04.2018 4 min. czytania Tekst Image Facebook namawia swoich użytkowników, żeby oddali pod obróbkę algorytmów to, co najbardziej unikatowe: swój biometryczny profil. Dzięki nowej funkcji portal zyska dostęp do potencjalnie niewyczerpanego źródła danych. „Jeśli włączysz to ustawienie, będziemy korzystać z technologii rozpoznawania twarzy, aby rozpoznawać Cię na zdjęciach, w filmach i aparacie oraz chronić Cię przed nieznajomymi wykorzystującymi Twoje zdjęcia, znajdować i wyświetlać zdjęcia, na których jesteś, ale Cię na nich nie oznaczono, informować osoby z wadami wzroku o tym, kto jest na zdjęciu lub w filmie oraz proponować oznaczanie innych osób” – nowa funkcja, do której włączenia namawia nas Facebook, nie brzmi groźnie. Gra na poczuciu bezpieczeństwa i potrzebie kontroli. Już nie musisz się obawiać, że ktoś nieznajomy oznaczy cię na obciachowym zdjęciu. Ba, możesz pomóc tym, którzy nie widzą. Facebook ewidentnie próbuje nas przekonać, że to technologia, która służy ludziom. W UE Facebook potrzebuje wyraźnej zgody Na kolejnych skandalach portal społecznościowy uczy się, jak mówić do swoich użytkowników, żeby ich nie przestraszyć, a wręcz pozyskać do swoich celów. W Unii Europejskiej musi być bardziej przekonujący, bo wszędzie tam, gdzie w grę wchodzą dane wrażliwe (ujawniające pochodzenie etniczne, orientację seksualną czy poglądy polityczne), na ich przetwarzanie potrzebuje wyraźnej zgody (model opt in). Podobnie jest w przypadku danych, które ewidentnie wykraczają poza to, co jest mu potrzebne do świadczenia usług i to, co jest uznawane za „uzasadniony interes administratora”. Dane, które Facebook ma nadzieję pozyskać dzięki automatycznemu rozpoznawaniu twarzy, bez wątpienia są po drugiej stronie tej cienkiej czerwonej linii. To wymarzony eksperyment dla inżynierów pracujących nad sztuczną inteligencją. Ale dla użytkowników i chroniących ich prawa regulatorów – sygnał alarmowy. Nawet w liberalnych Stanach Zjednoczonych włączenie tej opcji bez wyraźnej zgody użytkowników doprowadziło Facebooka do sądu. Sklejanie wszelkich okruchów naszego cyfrowego życia (zdjęć, postów, prywatnych wiadomości, lokalizacji, metadanych, historii odwiedzanych stron) w spójny profil marketingowy – mimo kontrowersji i kolejnych spraw sądowych – do tej pory przechodziło nawet przez sito europejskich przepisów. Dopiero skandal z Cambridge Analityca i targetowaniem wyborców pokazał, że w sztuce przewidywania ludzkich zachowań Facebook wyszedł daleko poza racjonalne oczekiwania swoich użytkowników, a wygenerowanej w ten sposób wiedzy nie zawaha się wykorzystać w interesie każdego, kto za to zapłaci. W cieniu tej afery i w przeddzień przestawienia się na nowe, surowsze przepisy (25 maja zaczyna być stosowane rozporządzenie o ochronie danych osobowych, tzw. RODO), Facebook namawia swoich użytkowników, żeby mu jednak zaufali i oddali pod obróbkę algorytmów to, co najbardziej unikatowe: swój biometryczny profil. Obiecując nam pozorne bezpieczeństwo i kontrolę nad własnym wizerunkiem w ramach sieci społecznościowej, Zuckerberg taktycznie nie wspomina o tym, że dzięki funkcji rozpoznawania twarzy portal zyska dostęp do nowego, potencjalnie niewyczerpanego źródła danych. Dla odpowiednio wytrenowanych algorytmów każde z milionów zdjęć wrzucanych codziennie do sieci to czytelna informacja o naszym życiu: z kim i gdzie się pojawiamy, co robimy, jakie przezywamy emocje, jak się zmieniamy, co konsumujemy. Skoro Facebook potrafi już rozpoznać twarz człowieka, bez problemu zrozumie też całą resztę. Drobne korzyści, jakie sami możemy zyskać dzięki takiej funkcjonalności, są niczym w porównaniu z wartością, jaką biometryczna baza milionów ludzi oznacza dla tych, którzy chcą nas kontrolować. Facebook zarabia na tym, że jest w stanie skutecznie przewidzieć w co, i z jaką intencją klikniemy. Tę walkę o moment naszej uwagi wygrywa dlatego, że naprawdę dużo o nas wie. Czy jesteśmy gotowi na jeszcze więcej, przy świadomości, że marketing wkracza w coraz intymniejsze i poważniejsze sfery naszego życia, takie jak zdrowie czy polityka? A przecież na Facebooku i jego kontrahentach życie naszych danych się nie kończy. Jaki cel dla największej na świecie biometrycznej bazy danych znajdą rządy i agencje wywiadowcze, dla których Facebook też jest atrakcyjnym dostawcą? Dziś jeszcze możemy podjąć decyzję, że nie chcemy tego sprawdzać. Katarzyna Szymielewicz Tekst ukazał się w cyfrowym wydaniu Tygodnika Polityka. Wspieraj naszą walkę o wolność i prywatność! Wpłać darowiznę na konto Fundacji Panoptykon. Anna Obem Autorka Temat biometria media społecznościowe Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Po głosowaniu w europarlamencie: artykuł 13 w pytaniach i odpowiedziach W środę, 12 września, Parlament Europejski przyjął projekt dyrektywy o prawie autorskim, której artykuł 13 krytykowaliśmy od samego początku. Dla Panoptykonu punktem wyjścia w tej dyskusji jest nie tyle regulacja ochrony praw autorskich czy value gap, ale rola dominujących platform internetowych,… 13.09.2018 Tekst Artykuł Jak platformy mieszają w demokracji algorytmami rekomendującymi treści Sensacyjne nagłówki klikają się lepiej niż wyważone polemiki. To sprawia, że są też bardziej widoczne na platformach społecznościowych takich jak Facebook, bo ich algorytmy premiują „angażujące” treści. W czasie kampanii wyborczej ten wyścig po uwagę może mieć poważne konsekwencje. 17.05.2024 Tekst Artykuł Facebook, Google i Microsoft wciąż próbują „naciągnąć” nas na dane Raport norweskiej rady ds. konsumentów dostarcza dowodów na wykorzystywanie użytkowników i nieprzejrzyste rozwiązania, których głównym zadaniem jest zwieść naszą czujność i zmanipulować wybór. 30.06.2018 Tekst