Artykuł 14.06.2019 3 min. czytania Tekst Image „Wyobraźcie to sobie przez chwilę: jeden człowiek posiadający całkowitą kontrolę nad skradzionymi danymi miliardów ludzi, wszystkimi ich sekretami, życiem, przyszłością…” – mówi Mark Zuckerberg na sfałszowanym nagraniu, które opublikował na portalu brytyjski artysta Bill Posters jako część promocji projektu „Spectre”. Posters swoim materiałem chce zwrócić uwagę na to, jaką władzą dysponuje Facebook dzięki gromadzonym przez siebie danym. Jednak więcej kontrowersji niż samo nagranie wzbudziła reakcja Facebooka na kolejnego głośnego deepfake’a. O deepfake’ach zrobiło się głośno po tym, jak twarz znanej aktorki przyklejono postaciom w filmie pornograficznym, a w usta Baracka Obamy włożono komentarze w stylu niespotykanym u byłego prezydenta. Sfałszowane wideo ukazujące prawdziwe osoby w nieprawdziwym kontekście to jedna z najbardziej zaawansowanych, a przez to najgroźniejsza forma manipulacji informacją. Wiedział o tym prawnik Donalda Trumpa, który umieścił na Facebooku zmanipulowane wideo z członkinią amerykańskiego kongresu Nancy Pelosi, która przez to, że nagranie jest puszczone w zwolnionym tempie, może sprawiać wrażenie pijanej albo chorej. Facebook odmówił usunięcia nagrania, tłumacząc to wolnością słowa. Jednak wolność słowa w wydaniu Facebooka ma swoje ograniczenia, które firma manifestuje obcinaniem zasięgów. Ta pozornie bardziej subtelna forma cenzury w praktyce ma podobne konsekwencje, co arbitralne usuwanie treści. Może być nawet groźniejsza. Użytkownik, który otrzymał informację, że jego post został usunięty, przynajmniej teoretycznie może się odwołać (w praktyce skuteczność tej procedury jest naszym zdaniem dyskusyjna – więcej na temat w opisie sprawy SIN vs Facebook, którą wspiera Panoptykon); natomiast cięcie zasięgów (tzw. shadowban) odbywa się poza jakąkolwiek kontrolą i nie ma tu mowy o przejrzystości. Nie mamy gotowej odpowiedzi na pytanie o to, jak Facebook powinien zachowywać się wobec deepfake’ów. Kiedy stają się na tyle szkodliwe, że powinien je usuwać, a kiedy mógłby stosować inne środki? Materiały, które są komentarzem krytycznym albo artystycznym do jakiegoś istotnego problemu, z pewnością nie powinny być traktowane tak samo jak te, które stworzono po to, żeby kogoś oczernić albo wprowadzić publikę w błąd. I tu pojawia się pytanie o to, na ile filtry (moderatorzy, fact-checkerzy) są w stanie prawidłowo ocenić kontekst danej treści. Co może zrobić użytkownik, gdy jednak zrobią to źle? A z doświadczenia wiemy, że nie zawsze im to wychodzi. Czy w ogóle może coś zrobić, skoro cięcia zasięgów może się jedynie domyślać? Jeśli jednak uda mu się tego domyślić, to czy powinien mieć np. prawo do odwołania na podobnej zasadzie jak przy usuwaniu? Miejmy jednak świadomość, że dana treść nie znika całkowicie, a to, że nie załapie się na walla, to przecież nic nowego… Facebook od dawna rezerwuje sobie prawo do decydowania o tym, co na nim zobaczysz, a czego nie. Anna Obem, Dorota Głowacka Anna Obem Autorka Temat wolność słowa Odpowiedzialność pośredników za treści w Internecie Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Polski rząd krytycznie o projekcie rozporządzenia UE dotyczącego blokowania treści o charakterze terrorystycznym Ministerstwo Cyfryzacji udostępniło nam stanowisko polskiego rządu na temat projektu unijnego rozporządzenia ws. zapobiegania rozpowszechnianiu w Internecie treści o charakterze terrorystycznym. 21.12.2018 Tekst Artykuł Problemy cyfrowych tubylczyń i tubylców [recenzja] „Dawniej było lepiej” – to tlące się w rozmowach Jaremy Piekutowskiego z prof. Andrzejem Zybertowiczem hasło wybrzmiewa podczas lektury mocniej lub słabiej, ale nie gaśnie. 15.09.2023 Tekst Artykuł Jak się czują zablokowani? Druga rozprawa SIN vs Facebook Dzisiaj odbyła się druga rozprawa w sprawie SIN vs Facebook, w ramach której organizacja poskarżyła się na cenzurę w mediach społecznościowych prowadzonych przez internetowego giganta. 23.06.2023 Tekst