Czy nowy cyfrowy ład jest możliwy?

Artykuł
28.10.2019
8 min. czytania
Tekst
Image

Wyobraźmy sobie nowy, cyfrowy ład. Taki, w którym ludzie nie są przetwarzani, jak cyfrowa biomasa, ale mają prawo głosu i są w stanie decydować o swoich danych. Dostają usługi, które są dopasowane do ich potrzeb, a jednocześnie bezpieczne. Nie wysyłają ich danych na giełdy reklam, nie śledzą bez pozwolenia, nie tworzą fałszywych lub nadużywających profili. Nowy cyfrowy ład, w którym wiedza o ludziach, która dziś jest kontrolowana wyłącznie przez komercyjne firmy, zaczyna być wykorzystywana do rozwiązywania wspólnych problemów. Cyfrowy ekosystem, w którym nasze dane karmią projekty i realizują cele, które sami uznajemy za ważne. Brzmi jak utopia? Niekoniecznie, raczej jak ambitny polityczny projekt dla Unii Europejskiej. 

Klimat na zmiany

Skład nowej Komisji Europejskiej nie pozostawia wątpliwości. Margrethe Vestager w roli wiceprzewodniczącej odpowiedzialnej za sprawy cyfrowe oznacza, że obok zielonej transformacji, za którą odpowiada pierwszy wiceprzewodniczący Frans Timmermans, porządkowanie internetu i świata nowej gospodarki będzie głównym priorytetem władz UE. Vestager gwarantuje, że skorzysta ze swoich prerogatyw bez skrupułów – w roli komisarza odpowiedzialnego za politykę antymonopolową zasłynęła karami nakładanymi na koncerny. Rekord to 4,3 mld euro „wlepione” Google'owi w 2018 r. Vestager zmusiła także Apple do zapłacenia 13 mld euro ukrytych przed europejskim fiskusem dzięki życzliwości Irlandczyków.

Niemniej gorąca dyskusja o przyszłości GAFA, czyli Google, Amazona, Facebooka i Apple (a także innych potentatów cyfrowego świata) toczy się w Stanach Zjednoczonych stając się tematem nabierającej tempa kampanii prezydenckiej. Elisabeth Warren ubiegająca się o nominację w wyborach z ramienia partii demokratycznej zapowiada wprost podział Facebooka, by pozbawić go monopolistycznej pozycji. I nawet interwencja administracji Donalda Trumpa, by Polska nie wygłupiała się z „podatkiem cyfrowym”, który obciążyłby głównie amerykańskie firmy nie podważa trendu – polityczny klimat wokół high-tech zmienił się.

W przyszłym roku Unia Europejska stanie przed pytaniem o nowy model regulacji rynku usług internetowych. Czeka nas nowelizacja starych instrumentów prawnych, które określały zasady odpowiedzialności za treści publikowane w sieci, uznając platformy takie jak Facebook i Google za neutralnych pośredników. Tymczasem stało się oczywiste, że są czymś więcej – dzięki swojej dominującej pozycji ustalają granice tego, co możliwe i niemożliwe dla mediów, miliardów użytkowników i innych usługodawców. Politycy i regulatorzy mają niewiele czasu, żeby na ten fakt zareagować i zaproponować taki model regulacji, w którym władza nad informacją wróci do społeczeństwa.   

Koniec epoki „użytkowników”

Cyfrowy technologiczny ekosystem jest dziś podobnie zatruty, jak środowisko przyrodnicze. Jeśli nie chcemy żyć pod dyktando prywatnych korporacji, potrzebujemy rozwiązań, które być może w krótkim horyzoncie ograniczą indywidualną wolność korzystania z technologii, ale w dłuższym zapewnią jej bardziej zrównoważony rozwój. Nie rozwiążemy żadnego z palących problemów, które pojawiły się „w pakiecie” z komercyjnym internetem, jeśli nie zakwestionujemy mechanizmów eksploatacji, na których został ufundowany . Dalsze uzależnienie od komercyjnych platform – które swoją dominującą pozycję zbudowały na zawłaszczeniu danych o życiu miliardów ludzi – zwyczajnie nam się nie opłaca. Taką diagnozę stawia amerykańska badaczka Shoshana Zuboff w głośnej książce „The Age of Surveillance Capitalism” (Epoka nadzorczego kapitalizmu).

Europa potrzebuje nowej wizji cyfrowego społeczeństwa – takiej, w której mieści się dobro wspólne, interes społeczny, kultura i ochrona praw człowieka. Żeby się do niej zbliżyć, musimy się najpierw rozstać ze starym modelem, w którym dominujące platformy udają neutralnych pośredników, a my wszyscy – użytkowników darmowych usług. Musimy dostrzec w pełni grozę zmian, które zaszły w cyfrowym środowisku i obudzić się jako aktywni i krytycznie myślący obywatele. Stawką jest wynegocjowanie nowej umowy społecznej dla cyfrowego świata, w sytuacji, w której jako użytkownicy komercyjnych usług już swoją wolność przehandlowaliśmy za kolorowe paciorki.

Pomysłów na uzdrowienie cyfrowego ekosystemu nie brakuje. Wśród krytycznie myślących badaczy i ekspertów ta dyskusja toczy się od lat. Ze środków europejskich na badania i innowację został sfinansowany projekt DECODE, który przygląda się niekomercyjnym, zdecentralizowanym modelom korzystania z danych. I tak na przykład rolę scentralizowanych sieci społecznościowych mogą przejąć sieci funkcjonujące na zasadzie federacji. Ich przewaga polega na tym, że każdy użytkownik zachowuje kontrolę nad danymi, które w ogóle nie są przekazywane na centralny serwer. Ten model już rozwijają takie projekty jak Diaspora czy Mastodon. 

Ćwiczenie z wyobraźni

Czy potrafimy sobie wyobrazić, że ta sama sieć społeczna, którą dziś kontroluje Facebook, zostaje mocą decyzji regulacyjnych wydzielona i zaczyna działać na zasadzie publicznej infrastruktury, a przynajmniej wspólnego zasobu? Zdaniem ekonomistki Mariany Mazzucato dane, które – uczestnicząc w globalnej sieci społecznej, chcąc nie chcąc wszyscy generujemy – powinny trafiać do publicznego repozytorium. Z tego miejsca byłyby udostępnianie różnym graczom w różnych celach. Komercyjne firmy, pod warunkiem działania zgodnie z obowiązującym prawem (w tym przepisami RODO), mogłyby je kupić, tym samym wynagradzając naszą darmową pracę. Jednocześnie ten zasób informacyjny byłby wykorzystywany do rozwijania projektów, których naprawdę potrzebujemy – na przykład opieki zdrowotnej czy budownictwa społecznego.

Uspołecznienie wiedzy generowanej przez – dziś komercyjne – algorytmy rozwiązałoby wiele problemów, jakie wynikają z dominującej pozycji platform internetowych. Mając unikatowy wgląd w to, jak działa człowiek i całe społeczeństwo, te firmy zyskały nie tylko niewyczerpane źródło zysków reklamowych i możliwość niejawnego wpływania na nasze decyzje, ale też pozycję na rynku, która wyklucza uczciwą konkurencję. Każdy, kto dziś zaczyna budować modele oparte na danych, nie jest w stanie prześcignąć tych, którzy zaczęli trenować swoje algorytmy dwadzieścia lat temu, a dziś dysponują danymi miliardów zalogowanych użytkowników. Bez odebrania im faktycznej kontroli nad tą wiedzą nie otworzymy rynku, ani nie zapewnimy ochrony przed nadużyciami samym użytkownikom. Z tego założenia wziął się pomysł tworzenia trustów danych, które przejmowałyby dane generowane przez komercyjne platformy i zarządzały nimi na zasadzie powiernictwa. Każdy użytkownik mógłby określić, na jakie wykorzystanie swoich danych się zgadza, ale nie musiałby tego sam pilnować.

W ramach takiej uspołecznionej infrastruktury można też więcej wymagać od algorytmów – odrzucić dogmat „czarnej skrzynki” i zażądać większej przejrzystości. W tym kierunku zmierzają rekomendacje wypracowane przez grupę roboczą do spraw sztucznej inteligencji, którą powołała Komisja Europejska. W Europie zgadzamy się, że każda decyzja podjęta przez algorytm, jeśli tylko ma poważne skutki dla człowieka, powinna być możliwa do wyjaśnienia. Dlaczego nie pójść krok dalej i nie oddać samym użytkownikom kontroli nad algorytmem, który decyduje o ich informacyjnej diecie?

Największe wyzwanie w poszukiwaniu nowego modelu polega na tym, że rozwiązanie musi być kompleksowe. Nie rzucimy światła na to, jak działają algorytmy, jeśli nie będziemy mieli kontroli nad danymi, na których są one trenowane. Nie zmusimy dominujących platform do reformy, jeśli nadal nie będą miały dla siebie konkurencji. A ta konkurencja nie narodzi się bez dostępu do wygenerowanej przez platformy, unikatowej wiedzy. Koło się zamyka. Realna zmiana oznacza zbudowanie nowej informacyjnej infrastruktury – infrastruktury, która nie jest komercyjną własnością, ale działa dla dobra społeczeństwa i pod jego kontrolą.

Katarzyna Szymielewicz

Tekst jest skrótem dłuższego eseju opublikowanego na łamach „Polityki”

Newsletter

Otrzymuj informacje o działalności Fundacji

Administratorem twoich danych jest Fundacja Panoptykon. Więcej informacji o tym, jak przetwarzamy dane osób subskrybujących newsletter, znajdziesz w naszej Polityce prywatności.