Artykuł 28.10.2019 8 min. czytania Tekst Image Wyobraźmy sobie nowy, cyfrowy ład. Taki, w którym ludzie nie są przetwarzani, jak cyfrowa biomasa, ale mają prawo głosu i są w stanie decydować o swoich danych. Dostają usługi, które są dopasowane do ich potrzeb, a jednocześnie bezpieczne. Nie wysyłają ich danych na giełdy reklam, nie śledzą bez pozwolenia, nie tworzą fałszywych lub nadużywających profili. Nowy cyfrowy ład, w którym wiedza o ludziach, która dziś jest kontrolowana wyłącznie przez komercyjne firmy, zaczyna być wykorzystywana do rozwiązywania wspólnych problemów. Cyfrowy ekosystem, w którym nasze dane karmią projekty i realizują cele, które sami uznajemy za ważne. Brzmi jak utopia? Niekoniecznie, raczej jak ambitny polityczny projekt dla Unii Europejskiej. Klimat na zmiany Skład nowej Komisji Europejskiej nie pozostawia wątpliwości. Margrethe Vestager w roli wiceprzewodniczącej odpowiedzialnej za sprawy cyfrowe oznacza, że obok zielonej transformacji, za którą odpowiada pierwszy wiceprzewodniczący Frans Timmermans, porządkowanie internetu i świata nowej gospodarki będzie głównym priorytetem władz UE. Vestager gwarantuje, że skorzysta ze swoich prerogatyw bez skrupułów – w roli komisarza odpowiedzialnego za politykę antymonopolową zasłynęła karami nakładanymi na koncerny. Rekord to 4,3 mld euro „wlepione” Google'owi w 2018 r. Vestager zmusiła także Apple do zapłacenia 13 mld euro ukrytych przed europejskim fiskusem dzięki życzliwości Irlandczyków. Niemniej gorąca dyskusja o przyszłości GAFA, czyli Google, Amazona, Facebooka i Apple (a także innych potentatów cyfrowego świata) toczy się w Stanach Zjednoczonych stając się tematem nabierającej tempa kampanii prezydenckiej. Elisabeth Warren ubiegająca się o nominację w wyborach z ramienia partii demokratycznej zapowiada wprost podział Facebooka, by pozbawić go monopolistycznej pozycji. I nawet interwencja administracji Donalda Trumpa, by Polska nie wygłupiała się z „podatkiem cyfrowym”, który obciążyłby głównie amerykańskie firmy nie podważa trendu – polityczny klimat wokół high-tech zmienił się. W przyszłym roku Unia Europejska stanie przed pytaniem o nowy model regulacji rynku usług internetowych. Czeka nas nowelizacja starych instrumentów prawnych, które określały zasady odpowiedzialności za treści publikowane w sieci, uznając platformy takie jak Facebook i Google za neutralnych pośredników. Tymczasem stało się oczywiste, że są czymś więcej – dzięki swojej dominującej pozycji ustalają granice tego, co możliwe i niemożliwe dla mediów, miliardów użytkowników i innych usługodawców. Politycy i regulatorzy mają niewiele czasu, żeby na ten fakt zareagować i zaproponować taki model regulacji, w którym władza nad informacją wróci do społeczeństwa. Koniec epoki „użytkowników” Cyfrowy technologiczny ekosystem jest dziś podobnie zatruty, jak środowisko przyrodnicze. Jeśli nie chcemy żyć pod dyktando prywatnych korporacji, potrzebujemy rozwiązań, które być może w krótkim horyzoncie ograniczą indywidualną wolność korzystania z technologii, ale w dłuższym zapewnią jej bardziej zrównoważony rozwój. Nie rozwiążemy żadnego z palących problemów, które pojawiły się „w pakiecie” z komercyjnym internetem, jeśli nie zakwestionujemy mechanizmów eksploatacji, na których został ufundowany . Dalsze uzależnienie od komercyjnych platform – które swoją dominującą pozycję zbudowały na zawłaszczeniu danych o życiu miliardów ludzi – zwyczajnie nam się nie opłaca. Taką diagnozę stawia amerykańska badaczka Shoshana Zuboff w głośnej książce „The Age of Surveillance Capitalism” (Epoka nadzorczego kapitalizmu). Europa potrzebuje nowej wizji cyfrowego społeczeństwa – takiej, w której mieści się dobro wspólne, interes społeczny, kultura i ochrona praw człowieka. Żeby się do niej zbliżyć, musimy się najpierw rozstać ze starym modelem, w którym dominujące platformy udają neutralnych pośredników, a my wszyscy – użytkowników darmowych usług. Musimy dostrzec w pełni grozę zmian, które zaszły w cyfrowym środowisku i obudzić się jako aktywni i krytycznie myślący obywatele. Stawką jest wynegocjowanie nowej umowy społecznej dla cyfrowego świata, w sytuacji, w której jako użytkownicy komercyjnych usług już swoją wolność przehandlowaliśmy za kolorowe paciorki. Pomysłów na uzdrowienie cyfrowego ekosystemu nie brakuje. Wśród krytycznie myślących badaczy i ekspertów ta dyskusja toczy się od lat. Ze środków europejskich na badania i innowację został sfinansowany projekt DECODE, który przygląda się niekomercyjnym, zdecentralizowanym modelom korzystania z danych. I tak na przykład rolę scentralizowanych sieci społecznościowych mogą przejąć sieci funkcjonujące na zasadzie federacji. Ich przewaga polega na tym, że każdy użytkownik zachowuje kontrolę nad danymi, które w ogóle nie są przekazywane na centralny serwer. Ten model już rozwijają takie projekty jak Diaspora czy Mastodon. Ćwiczenie z wyobraźni Czy potrafimy sobie wyobrazić, że ta sama sieć społeczna, którą dziś kontroluje Facebook, zostaje mocą decyzji regulacyjnych wydzielona i zaczyna działać na zasadzie publicznej infrastruktury, a przynajmniej wspólnego zasobu? Zdaniem ekonomistki Mariany Mazzucato dane, które – uczestnicząc w globalnej sieci społecznej, chcąc nie chcąc wszyscy generujemy – powinny trafiać do publicznego repozytorium. Z tego miejsca byłyby udostępnianie różnym graczom w różnych celach. Komercyjne firmy, pod warunkiem działania zgodnie z obowiązującym prawem (w tym przepisami RODO), mogłyby je kupić, tym samym wynagradzając naszą darmową pracę. Jednocześnie ten zasób informacyjny byłby wykorzystywany do rozwijania projektów, których naprawdę potrzebujemy – na przykład opieki zdrowotnej czy budownictwa społecznego. Uspołecznienie wiedzy generowanej przez – dziś komercyjne – algorytmy rozwiązałoby wiele problemów, jakie wynikają z dominującej pozycji platform internetowych. Mając unikatowy wgląd w to, jak działa człowiek i całe społeczeństwo, te firmy zyskały nie tylko niewyczerpane źródło zysków reklamowych i możliwość niejawnego wpływania na nasze decyzje, ale też pozycję na rynku, która wyklucza uczciwą konkurencję. Każdy, kto dziś zaczyna budować modele oparte na danych, nie jest w stanie prześcignąć tych, którzy zaczęli trenować swoje algorytmy dwadzieścia lat temu, a dziś dysponują danymi miliardów zalogowanych użytkowników. Bez odebrania im faktycznej kontroli nad tą wiedzą nie otworzymy rynku, ani nie zapewnimy ochrony przed nadużyciami samym użytkownikom. Z tego założenia wziął się pomysł tworzenia trustów danych, które przejmowałyby dane generowane przez komercyjne platformy i zarządzały nimi na zasadzie powiernictwa. Każdy użytkownik mógłby określić, na jakie wykorzystanie swoich danych się zgadza, ale nie musiałby tego sam pilnować. W ramach takiej uspołecznionej infrastruktury można też więcej wymagać od algorytmów – odrzucić dogmat „czarnej skrzynki” i zażądać większej przejrzystości. W tym kierunku zmierzają rekomendacje wypracowane przez grupę roboczą do spraw sztucznej inteligencji, którą powołała Komisja Europejska. W Europie zgadzamy się, że każda decyzja podjęta przez algorytm, jeśli tylko ma poważne skutki dla człowieka, powinna być możliwa do wyjaśnienia. Dlaczego nie pójść krok dalej i nie oddać samym użytkownikom kontroli nad algorytmem, który decyduje o ich informacyjnej diecie? Największe wyzwanie w poszukiwaniu nowego modelu polega na tym, że rozwiązanie musi być kompleksowe. Nie rzucimy światła na to, jak działają algorytmy, jeśli nie będziemy mieli kontroli nad danymi, na których są one trenowane. Nie zmusimy dominujących platform do reformy, jeśli nadal nie będą miały dla siebie konkurencji. A ta konkurencja nie narodzi się bez dostępu do wygenerowanej przez platformy, unikatowej wiedzy. Koło się zamyka. Realna zmiana oznacza zbudowanie nowej informacyjnej infrastruktury – infrastruktury, która nie jest komercyjną własnością, ale działa dla dobra społeczeństwa i pod jego kontrolą. Katarzyna Szymielewicz Tekst jest skrótem dłuższego eseju opublikowanego na łamach „Polityki” Anna Obem Autorka Temat media społecznościowe biznes reklamowy algorytmy profilowanie dane osobowe Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Sztuczna inteligencja pod kontrolą. Europa szykuje przepisy Bez względu na to, czy kibicujemy rozwojowi sztucznej inteligencji i jej obecności „w każdej lodówce”, czy się tego scenariusza obawiamy, jedno możemy przyjąć za pewnik: ta dziedzina wiedzy technicznej, o szerokim zastosowaniu, dopiero się rozkręca i niejednym nas jeszcze zaskoczy. Czekają nas nie… 29.06.2020 Tekst Raport Śledzenie i profilowanie w sieci. Jak z klienta stajesz się towarem W raporcie Śledzenie i profilowanie w sieci. Jak z klienta stajesz się towarem przyglądamy się temu, jak działa reklama targetowana, zaglądamy na zaplecze portali internetowych i krok po kroku pokazujemy, jak powstają profile marketingowe. Link do pobrania raportu znajduje się na stronie Na… 20.03.2019 Tekst Artykuł Big tech kontra RODO. Jak od 6 lat internetowe korporacje obchodzą to prawo „Zgoda” na śledzącą i profilującą reklamę – czasem zaszyta w regulaminie usługi, innym razem wymuszona na poziomie interfejsu. Możesz też jej nie wyrazić za słoną opłatą. Z okazji 6. 26.04.2024 Tekst