Cięcie zasięgów gorsze niż cenzura? Jak Facebook udaje, że (nie) walczy z deepfake’ami

Artykuł
14.06.2019
3 min. czytania
Tekst
Image

„Wyobraźcie to sobie przez chwilę: jeden człowiek posiadający całkowitą kontrolę nad skradzionymi danymi miliardów ludzi, wszystkimi ich sekretami, życiem, przyszłością…” – mówi Mark Zuckerberg na sfałszowanym nagraniu, które opublikował na portalu brytyjski artysta Bill Posters jako część promocji projektu „Spectre”. Posters swoim materiałem chce zwrócić uwagę na to, jaką władzą dysponuje Facebook dzięki gromadzonym przez siebie danym. Jednak więcej kontrowersji niż samo nagranie wzbudziła reakcja Facebooka na kolejnego głośnego deepfake’a.

O deepfake’ach zrobiło się głośno po tym, jak twarz znanej aktorki przyklejono postaciom w filmie pornograficznym, a w usta Baracka Obamy włożono komentarze w stylu  niespotykanym u byłego prezydenta. Sfałszowane wideo ukazujące prawdziwe osoby w nieprawdziwym kontekście to jedna z najbardziej zaawansowanych, a przez to najgroźniejsza forma manipulacji informacją.

Wiedział o tym prawnik Donalda Trumpa, który umieścił na Facebooku zmanipulowane wideo z członkinią amerykańskiego kongresu Nancy Pelosi, która przez to, że nagranie jest puszczone w zwolnionym tempie, może sprawiać wrażenie pijanej albo chorej. Facebook odmówił usunięcia nagrania, tłumacząc to wolnością słowa.

Jednak wolność słowa w wydaniu Facebooka ma swoje ograniczenia, które firma manifestuje obcinaniem zasięgów. Ta pozornie bardziej subtelna forma cenzury w praktyce ma podobne konsekwencje, co arbitralne usuwanie treści. Może być nawet groźniejsza. Użytkownik, który  otrzymał informację, że jego post został usunięty, przynajmniej teoretycznie może się odwołać (w praktyce skuteczność tej procedury jest naszym zdaniem dyskusyjna – więcej na temat w opisie sprawy SIN vs Facebook, którą wspiera Panoptykon); natomiast cięcie zasięgów (tzw. shadowban) odbywa się poza jakąkolwiek kontrolą i nie ma tu mowy o przejrzystości.

Nie mamy gotowej odpowiedzi na pytanie o to, jak Facebook powinien zachowywać się wobec deepfake’ów. Kiedy stają się na tyle szkodliwe, że powinien je usuwać, a kiedy mógłby stosować inne środki? Materiały, które są komentarzem krytycznym albo artystycznym do jakiegoś istotnego problemu, z pewnością nie powinny być traktowane tak samo jak te, które stworzono po to, żeby kogoś oczernić albo wprowadzić publikę w błąd. I tu pojawia się  pytanie o to, na ile filtry (moderatorzy, fact-checkerzy) są w stanie prawidłowo ocenić kontekst danej treści. Co może zrobić użytkownik, gdy jednak zrobią to źle? A z doświadczenia wiemy, że nie zawsze im to wychodzi. Czy w ogóle może coś zrobić, skoro cięcia zasięgów może się jedynie domyślać? Jeśli jednak uda mu się tego domyślić, to czy powinien mieć np. prawo do odwołania na podobnej zasadzie jak przy usuwaniu? Miejmy jednak świadomość, że dana treść nie znika całkowicie, a to, że nie załapie się na walla, to przecież nic nowego… Facebook od dawna rezerwuje sobie prawo do decydowania o tym, co na nim zobaczysz, a czego nie.

Anna Obem, Dorota Głowacka

Newsletter

Otrzymuj informacje o działalności Fundacji

Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje danejakie jeszcze prawa ci przysługują, w Polityce prywatności.