Mleko się wylało. Unia chce odebrać władzę GAFA

Artykuł
26.10.2020
7 min. czytania
Tekst
Image
Grafika z połączonymi obrazkami ludzi

Facebook, Google czy Amazon nadal mogłyby korzystać z wiedzy o ludziach, jaką zgromadziły, ale za cenę podzielenia się nią z konkurencją. Brzmi radykalnie? O to chodzi.

Są tylko dwie branże, które nazywają swoich klientów userami: narkotykowa i produkująca oprogramowanie. Ta myśl Edwarda Tuftego zatrzymuje nas na dłuższą chwilę, kiedy nieoczekiwanie wyświetla się między kadrami „Dylematu społecznego”. Dokument wyprodukowany przez Netflixa i wyreżyserowany przez Jeffa Orlowskiego jest pełen gorzkiej prawdy o naszej kondycji w cyfrowym świecie. Tak, daliśmy się złowić w sieć pseudousług, które wcale nie są dla nas dobre. Wręcz przeciwnie, są projektowane z intencją, by nas uzależniać, wciągać w spiralę konsumpcji, budować inwazyjne profile marketingowe i wystawiać je na giełdach reklam.

Nikt nie chciał źle, ale tak wyszło

Dokument nie ujawnia nieznanych wcześniej faktów na temat platform internetowych. Nie na tym polega jego siła. Przynajmniej od 2015 r., kiedy Guardian nagłośnił sprawę Cambridge Analytica – firmy, która zręcznie wykorzystała możliwości stworzone przez Facebooka do mikrotargetowania amerykańskich wyborców – trwa publiczna dyskusja o odpowiedzialności GAFA za wszystko, co złe w internecie. Tak, media społecznościowe manipulują naszymi emocjami i wzmagają depresyjne nastroje u nastolatków. Tak, ich model działania sprzyja szerzeniu się dezinformacji i zamknięciu użytkowników w bańkach informacyjnych, które wzmagają polaryzację. Ale kto w tym złożonym ekosystemie jest winny naszych krzywd i kto powinien te problemy rozwiązać?

Dylemat społeczny oddaje głos ludziom, którzy współtworzyli platformy internetowe: projektowali interfejsy użytkowników, programowali uczące się algorytmy i wymyślali, jak najskuteczniej zarobić na darmowych usługach. To nie są psychopaci, ale elokwentni i świadomi swoich działań profesjonaliści. Z wypowiedzi Tristana Harrisa (do 2015 r. odpowiadał w Google za etykę designu), Tima Kendalla (do 2010 r. dyrektora odpowiedzialnego za monetyzację na Facebooku) czy Rogera McNamee′a (jednego z pierwszych inwestorów Facebooka, autora krytycznej książki Zucked: Waking Up to the Facebook Catastrophe) przebija ta sama refleksja: nikt z nas nie chciał źle, ale tak wyszło. Tak wyszło, ponieważ okazało się, że ten model bezrefleksyjnego i kompulsywnego konsumowania treści, który do perfekcji doprowadziły platformy internetowe, żeruje na naszych słabościach, głębokich potrzebach i prostych instynktach.

Zyski z cyfrowego uzależnienia

My też chcielibyśmy być lepsi: nie ulegać pokusie klikania w sensacyjne nagłówki, nie kupować rzeczy, których nie potrzebujemy, nie hejtować i reagować, kiedy inni hejtują. Chcielibyśmy wybierać, ile czasu spędzamy w sieci i w co ten czas inwestujemy. Świadomość, że ulegamy manipulacji i pozwalamy sobą sterować, nie jest przyjemna. Dlatego tak często popadamy w wyparcie. I klikamy dalej w poszukiwaniu pozytywnych wzmocnień.

Tristan Harris, który w dokumencie Jeffa Orlowskiego tłumaczy te psychologiczne mechanizmy, nie oskarża nas o słabość. Nie oczekuje, że sami się wyzwolimy z pętli założonej na nasze umysły przez specjalistów od projektowania interfejsów i programowania algorytmów. Zdecydowanie przerzuca odpowiedzialność na firmy, które zamiast neutralnych narzędzi dały nam cyfrowy narkotyk. Być może twórcy tych rozwiązań wcale nie życzyli nam źle; być może sami wierzyli, że zrobimy z mediów społecznościowych lepszy użytek. Ale faktem jest, że czerpią zyski z naszego uzależnienia.

Szaleństwem jest mówić, że trzeba wszystko zmienić, ale to właśnie należy zrobić – przekonuje w finałowej scenie filmu Tristan Harris. Dopytany, czy się nam uda, w amerykańskim stylu odpowiada: Musi. Przy czym nic tak naprawdę się nie zmieni, jeśli wielkie platformy nie zaakceptują odpowiedzialności za społeczne szkody, jakie generuje lub wzmacnia ich model biznesowy. Jeśli dominującej dziś logiki maksymalizowania zysku i przyzwolenia na eksploatowanie ludzi nie zastąpi inny paradygmat. I jeśli za tym paradygmatem nie podążą inwestorzy, a potem zwykli użytkownicy.

GAFA będzie dzielić się danymi z konkurencją?

Krytycy Doliny Krzemowej w filmie Orlowskiego nie mają pomysłu na nowy paradygmat. Komisja Europejska, która jeszcze w ubiegłym roku ogłosiła, że rozpoczyna prace nad pakietem regulującym usługi cyfrowe, ma na to pomysł. Radykalny, ale nie rewolucyjny. Europejscy komisarze, krytykując model działania GAFA, nie rzucają haseł w rodzaju podzielmy je! (let’s break them up), które słychać w Ameryce. Zapewne dlatego, że Bruksela ma parę dekad doświadczenia w regulowaniu rynku i uczy się na własnych błędach. Już wiemy, że platformy cyfrowe to nie to samo co stare firmy telekomunikacyjne. Nie chodzi o to, żeby zamiast jednego Facebooka były trzy platformy robiące to samo, bo nie w cenie oferowanych usług tkwi problem. Chodzi raczej o to, żeby korzyści płynące z efektów sieciowych i wiedza, jaką dają odpowiednio przetworzone dane o ludziach, mogły służyć innym celom niż zysk jednej dominującej firmy.

Żeby osiągnąć ten efekt, Komisja Europejska zamierza wprowadzić specjalne reguły dla wielkich platform, a wręcz rozwiązania szyte na miarę konkretnej firmy. Z jej dokumentów roboczych, które w ubiegłym tygodniu przeciekły do mediów, wynika, że powstanie coś na kształt listy niedozwolonych praktyk. Posiłkując się nią, Komisja (albo specjalnie powołany nowy organ) będzie mogła przyjść do firmy takiej jak Google czy Facebook z konkretnym nakazem albo zakazem. Będzie mogła np. zakazać platformie wykorzystywania danych o użytkownikach – również tych, które wygenerowała dzięki uczącym się algorytmom – wyłącznie w jej własnych celach biznesowych. A więc Facebook, Google czy Amazon nadal mogłyby korzystać z wiedzy o ludziach, jaką przez lata zgromadziły, ale za cenę podzielenia się nią z konkurencją. Brzmi radykalnie? I właśnie o to chodzi.

Cięciami ograniczać władzę GAFA

Robocza lista niedozwolonych praktyk to w zasadzie litania zarzutów wobec modelu biznesowego GAFA. Koniec z preferowaniem własnych usług w wyszukiwarce czy sklepie z aplikacjami. Koniec swobodnego łączenia danych pochodzących z różnych źródeł, np. ze śledzenia użytkowników na innych stronach za pomocą wszechobecnych wtyczek i niewidzialnych pikseli. Koniec z wykorzystywaniem we własnym interesie platformy danych wnoszonych przez jej biznesowych klientów (np. Facebook chętnie wzbogacał swoje profile marketingowe o dane pochodzące od reklamodawców – tzw. custom audience). Te zarzuty nie są nowe: wielokrotnie padały i w mediach, i na salach sądowych.

Przy czym do tej pory europejscy regulatorzy reagowali na takie szkodliwe praktyki dopiero po fakcie. W pewnym sensie musieli czekać, aż mleko się wyleje, bo przepisy nie pozwalały im na ruchy wyprzedzające. Sprawy o nadużywanie pozycji dominującej przez GAFA ciągnęły się latami, platformy odwoływały się w sądach od nakładanych na nie kar i dalej robiły to samo. Podbijały kolejne rynki, coraz skuteczniej śledziły i profilowały (nie tylko swoich) użytkowników i bezwzględnie wykorzystywały zdobytą w ten sposób wiedzę. W nowym modelu Komisja Europejska już nie zamierza im na to pozwolić. Chce aktywnie kształtować rynek i zręcznymi cięciami ograniczać władzę GAFA.

Czy jej się uda? Nic pewnego, ale tej regulacyjnej ofensywie naprawdę warto kibicować.

Tekst ukazał się 11.10.2020 r. na stronie Tygodnika POLITYKA

Więcej na temat regulacyjnej ofensywy UE konta GAFA

Newsletter

Otrzymuj informacje o działalności Fundacji

Administratorem twoich danych jest Fundacja Panoptykon. Więcej informacji o tym, jak przetwarzamy dane osób subskrybujących newsletter, znajdziesz w naszej Polityce prywatności.