Artykuł 28.11.2024 16 min. czytania Tekst Image Nie ma już sensu udawać, że sztuczna inteligencja nie zmieni naszego systemu, szczególnie na szczeblu administracji. W Panoptykonie ciągle próbujemy rejestrować próby używania najnowszych technologii przez urzędy albo służby. Bo za zasłoną technologii najczęściej kryje się kryzys całego systemu. O tym Jakub Dymek rozmawia z Danem McQuillanem*.Jakub Dymek: Jak doszedłeś do przekonania, że sztucznej inteligencji (wszystkiego, co powszechnie rozumiemy jako AI) nie można uregulować czy ująć w ramy jakichś kodeksów etycznych, więc należy stawić jej opór?Dan McQuillan: Przez obserwację. Przyglądałem się temu, jak działają algorytmy predykcyjne i tzw. generatywna sztuczna inteligencja, jak przebiega i do czego prowadzi uczenie maszynowe tych systemów. Wniosek jest taki, że to nie funkcjonuje tak, jak nam się przedstawia. A żeby algorytmy i AI można było uregulować czy poddać jakiejś formie demokratycznej kontroli, musiałyby działać zgodnie z założeniami ludzi, którzy mają zamiar to zrobić. Jednak tak nie jest. Skoro zatem przekonanie o tym, że AI działa w określony sposób i można ją uregulować, jest fałszywe, to podejmowane próby w tym obszarze będą daremne. Jestem zdania, że demokratyzacja AI jest niezgodna z samą jej naturą. Image Dan McQuillian, źródłoSpróbujmy się w to zagłębić. Co takiego AI robi i czego nie robi, że – jak twierdzisz – nie da się jej kontrolować?Wszystkie produkty oparte na sieciach neuronowych (niezależnie od tego, o jakim typie tzw. sztucznej inteligencji mówimy) mają coś wspólnego. Ściemniają.AI ściemnia?Tak. Predykcyjna AI służy rzekomo do przewidywania rezultatów. A w rzeczywistości ona je zgaduje. To matematycznie zoptymalizowana zabawa w zgaduj-zgadulę. Dzięki olbrzymim zbiorom danych, procesorom o wielkiej mocy i niezliczonym kalkulacjom, które mają nauczyć model odpowiadania na pytania czy rozpoznawania wzorów, AI jest w stanie odgadnąć, jakiej odpowiedzi czy rezultatu oczekujemy. O to tu chodzi: algorytm jest na tyle sprawny w wyszukiwaniu korelacji, prawidłowości i wzorów, że jego działania bierzemy za inteligencję.Być może nie ma wielkiego ryzyka, gdy zastosujemy tego typu mechanizm do przedstawiania rekomendacji muzycznych – tak by wpisały się w nasz gust czy nastrój. Ale chyba nie o to nam chodzi, gdy usiłujemy dowiedzieć się, czy ktoś jest w grupie ryzyka, jeśli chodzi o choroby psychiczne, albo oceniamy to, czy komuś należy się zasiłek społeczny. Image „Jeżeli usługa w rodzaju aplikacji ChatGPT wypluje wypowiedź, która wydaje ci się sensowna, to znaczy, że skutecznie sprzedała ci ściemę”. Na zrzucie z ekranu odpowiedź Chata GPT 4.0 na pytanie o Franciszka Szkota. Imię i nazwisko jest zmyślone, Szkot nigdy nie był prezydentem w Łodzi.To dlatego nazywasz te narzędzia oparte na AI „generatorami ściemy?” [bullshit generators]Jeżeli usługa w rodzaju aplikacji ChatGPT wypluje wypowiedź, która wydaje ci się sensowna, to znaczy, że skutecznie sprzedała ci ściemę. Za pomocą zaawansowanego mechanizmu wyszukiwania i odtwarzania wzorów (w tym przypadku słów, które powinny następować po sobie) udało jej się losowo wygenerować wypowiedź, która oszukała twój filtr wyłapujący bezsens czy fałsz. Tylko że nie ma żadnej gwarancji – bo nie może być – że wyprodukowane zdanie jest w jakimkolwiek sensie prawdziwe, trafne czy słuszne. Ono ma dawać pozór spójności, żeby „kupiło je” możliwie dużo osób. W tym sensie AI działa podobnie do osoby, która wciska innym ściemę na imprezie i bryluje, poruszając tematy, o których nie ma pojęcia, do czasu, aż słuchacze się nie połapią, że te wypowiedzi – choć pozornie brzmią racjonalnie – nie mają oparcia w rzeczywistości.Dla nas takim czytelnym znakiem, że za mechanizmami AI nie stoi żaden rodzaj rozumowania czy inteligencji, ale po prostu zaawansowane odnajdywanie i odtwarzanie wzorów, są momenty, kiedy generatywny model zaczyna bełkotać albo halucynować…Halucynacje sztucznej inteligencji! „Associated Press” miał artykuł o tym, jak system służący do transkrypcji wywiadów medycznych w szpitalach zaczął wypisywać rzeczy, których ludzie nigdy nie powiedzieli w trakcie swoich wizyt.Tak, dzięki temu mamy przebłyski tego, jak AI naprawdę działa. Jest całkowicie oderwana od tego, na czym w swoim rozumowaniu opierają się ludzie – od wyobrażeń, jak działa świat, i od zakorzenienia w rzeczywistości, do której można się odnieść. Kiedy tym systemom udaje się zrobić coś z naszego punktu widzenia niesamowitego i trafnego, tak naprawdę działa przypadek. To znaczy, że przypadkiem dopasowały coś do wzorca w sposób, który jest analogiczny do tego, jak zrobiłby to człowiek. Ale na tym polega ta zabawa: te same systemy działają identycznie, gdy dopasowują coś do wzorca, który zupełnie nie ma odzwierciedlenia w rzeczywistości. Image „AI nie ma prawa wiedzieć, co jest błędne, a co poprawne, bo nie ma żadnego pojęcia o rzeczywistości. Jest tylko narzędziem do wychwytywania korelacji”. Zdjęcie: Gerd Itjeshorst | UnsplashAle z perspektywy AI wszystko działa jak należy, prawda?Dokładnie. Matematycznie patrząc, gdy algorytm informuje o nieistniejących rzeczach albo wstawia w wygenerowany przez siebie obraz czy transkrypt rzeczy, których nie ma prawa tam być, wszystko jest równie poprawne jak wtedy, kiedy AI przynosi „dobrą odpowiedź”. Przecież algorytm, optymalizując różne warianty, znalazł najlepszą i najściślejszą korelację między dwoma punktami danych. Tak to działa: nośniki sensu i znaczenia, jakie my mamy – słowa, symbole, kolory – zostają przepisane na zbiór cyfr. Tylko tak AI je łączy ze sobą i szuka prawidłowości. Nie może zatem dziwić, że skoro AI szuka wzoru i zależności w ten sposób, dojdzie do połączeń, które nigdy nie pojawiłyby się u ludzi i nie mają dla nich sensu.Wzór, jaki algorytm miał odnaleźć, pokrywa się z tym, do czego został zaprogramowany, a więc……zadanie wykonane! Biedna AI zostaje obwiniona za błędny rezultat. A AI nie ma prawa wiedzieć, co jest błędne, a co poprawne, bo nie ma żadnego pojęcia o rzeczywistości. Jest tylko narzędziem do wychwytywania korelacji. Oczywiście, gdy już to wiemy, możemy przyjąć, że podobnie będzie podchodzić do oceniania ludzi, klasyfikowania informacji o nich, dochodzenia do wniosków – będzie znajdować korelacje, które są poprawne na gruncie programu, ale niekoniecznie w rzeczywistości. Image „Nie chcę przez to powiedzieć, że nie powinniśmy się sprzeciwiać masowemu nadzorowi czy sprowadzaniu naszego życia do zbiorów danych przez wielkie korporacje. Mówię, że nie tylko o to chodzi. Chodzi o poszerzenie zagadnienia i o pytanie: >>W jakim świecie chcielibyśmy żyć i jaki rodzaj technopolityki powinien w takim świecie obowiązywać?<<” Jedna z najmocniejszych tez, jakie stawiasz w swojej książce Resisting AI, mówi, że problem, przed jakim stoimy, nie ma charakteru technicznego, ale polityczny. To znaczy, że aby AI działała dobrze – tak, jak się nam obiecuje, że będzie działać – musielibyśmy się zgodzić na szereg warunków, na które zgodzić się nie sposób: na inwigilację społeczeństw, masowe zbieranie wszelkich danych i karmienie nimi algorytmów, redukcję wszystkich aspektów życia do informacji dających zapisać się w kodzie, przekazanie podejmowania decyzji o ważnych sprawach niemożliwym do weryfikacji wyrokom algorytmów… Czy dobrze to rozumiem?Tak wygląda problem, a właściwie część problemu. Ja wychodzę jednak z nieco innego założenia. Oczywiście, prywatyzacja kolejnych sfer życia i bezosobowe okrucieństwo cyfrowej biurokracji – to wszystko i tak już ma miejsce i nie spotyka się z wystarczająco mocnym oporem. To nie są wyzwania albo tylko polityczne, albo tylko technologiczne. Przeciwnie, są technopolityczne – jedno idzie ręka w rękę z drugim. Konkretne rozwiązania wyrastają z politycznych okoliczności i technologicznych możliwości, które rozwijają się równolegle, a jedno jest odzwierciedleniem drugiego. Nie istnieje technologia oderwana od polityki swojej epoki i dlatego nie można o nich rozmawiać jak o osobnych rzeczach.Nie chcę przez to powiedzieć, że nie powinniśmy się sprzeciwiać masowemu nadzorowi czy sprowadzaniu naszego życia do zbiorów danych przez wielkie korporacje. Mówię, że nie tylko o to chodzi. Chodzi o poszerzenie zagadnienia i o pytanie: „W jakim świecie chcielibyśmy żyć i jaki rodzaj technopolityki powinien w takim świecie obowiązywać?”.Zgadzam się. Jednak chcę zapytać o to, jak można opierać się rzeczom, których nie widać, a są wszędzie. Jak zaprotestować przeciwko czemuś, o czym nawet nie wiemy, że nas spotyka?Jednym z powodów, dla których napisałem książkę, było pragnienie bicia na alarm w związku z tym, że te wścibskie mechanizmy, które podporządkowują nas sobie coraz bardziej i bez naszej zgody, działają dla korzyści ograniczonego grona beneficjentów i udziałowców. Żyjemy w świecie, w którym od algorytmów predykcyjnych, wkrótce zaś od wszelkich form AI, nie da się uciec.Użycie predykcyjnego AI uświadomiło nam, że zbiory danych, zautomatyzowane podejmowanie decyzji, niewidoczne procesy, które umożliwiają zastosowanie AI na większą skalę, już wcześniej istniały! To właśnie chcę pokazać, kiedy mówię, że nie istnieje technologia oderwana od polityki. AI jest po prostu najbardziej patologicznym wcieleniem tendencji społecznych, które są już obecne w naszym codziennym życiu. Ludzie postrzegają katastrofy klimatyczne jako pewien punkt graniczny, który pokazuje, że doszliśmy do ściany rozwoju kapitalizmu. Podobnie jest z AI – trzeba walczyć z przyczyną. Image „Użycie predykcyjnego AI uświadomiło nam, że zbiory danych, zautomatyzowane podejmowanie decyzji, niewidoczne procesy, które umożliwiają zastosowanie AI na większą skalę, już wcześniej istniały! (…) AI jest po prostu najbardziej patologicznym wcieleniem tendencji społecznych, które są już obecne w naszym codziennym życiu”. Na zdjęciu macierz punktów podczerwieni do rozpoznawania twarzy w systemie Face ID. Źródło.Ale jak przemęczony, przepracowany, ledwo wiążący koniec z końcem człowiek ma znaleźć czas i energię, żeby „opierać się AI” i walczyć?To wielkie i zawsze aktualne pytanie: „Dlaczego w niektórych momentach historycznych widzimy nasilenie społecznego oporu, a w innych nie?”. Żyję dość długo, by powiedzieć, że widziałem jedno i drugie, więc wszystko jest możliwe. Ale jeśli zgodzimy się, że AI jest technologią kolonialną (a tak uważam), antypracowniczą, antykobiecą, zwróconą przeciwko mniejszościom – to uświadomimy sobie, że ruchy walczące z tymi zjawiskami już istnieją, odnosiły historyczne sukcesy i opracowały swoje taktyki.Żebyśmy mieli jasność: nie mówię o czymś w rodzaju „obalenia sztucznej inteligencji” jednym ruchem. Staram się pokazać, że AI nie rozwija się poza istniejącymi zjawiskami takimi jak dyskryminacja, nierówności, biurokratyczna przemoc czy wyzysk. To nie przypadek, że wykorzystanie AI może służyć najbardziej reakcyjnej i skrajnie prawicowej polityce. Jeśli jesteś przemęczonym, pozbawionym czasu wolnego, chwytającym się dorywczych zajęć i żyjącym w niepewności pracownikiem – to dzieje się tak z powodu tych samych tendencji i zjawisk politycznych, które napędzają rozwój AI.Ale twoje pytanie zmierza w ciekawym kierunku, bo jest coś jeszcze...To znaczy?AI nie tylko napędza ten społeczny rozkład i atrofię systemu – widoczne w pogorszeniu się jakości usług publicznych, w prekaryzacji pracy, bezczynności wobec zmian klimatycznych, degeneracji umowy społecznej, we wszystkim tym, co już znamy i widzimy po kryzysie finansowym 2008 r. Ona służy także za najlepsze narzędzie do odwracania uwagi od tego systemowego załamania. Oczywiście przez długi czas ludzie się tym nie przejmowali. Łatwo było wierzyć, że początkowo automatyzacja dotknie tylko zawodów typu kurier, kierowca. Wraz z nadejściem tzw. generatywnego AI zaczęli się martwić nauczyciele czy dziennikarze, ale to wciąż nie tu jest problem. Problem tkwi w tym, że rozmawiamy o AI, a to odwraca naszą uwagę od systemowego kryzysu, którego jest rezultatem i który pomaga dalej nakręcać.Gdy mówisz o systemowej zapaści, to mówisz o prywatyzacji, o pogorszeniu się pracy, bezduszności napędzanej algorytmami biurokracji? Czy o czymś więcej?Mówię o tym, że system, w którym żyjemy, idzie ku czemuś nowemu. My wiemy, że on jest niezwykle odporny na różne kryzysy – a ja nie jestem naiwny i nie przewiduje jego upadku. Mówię raczej, że ten światowy system przekształca się na coraz bardziej autorytarną, faszyzująca modłę. I nie jest przypadkiem, że osoby wywodzące się z Dolny Krzemowej, które mówią, że demokracja jest przeżytkiem i chcą bardziej „efektywnego” sposobu rządzenia, to te same osoby, które są najbardziej zaangażowane w promowanie AI i sterują rozwojem tych narzędzi w określony sposób. Dziś zupełnie otwarcie głoszone są poglądy, że musimy zorganizować społeczeństwo w bardziej feudalny czy imperialny sposób, że musimy dużo oszczędniej rzucać innym koło ratunkowe, a chronić tylko siebie. To nie jest już pewien margines poglądów, ale dość arogancko wyrażany pogląd niezwykle wpływowych elit. I one mogą chcieć dokręcić śrubę. A to się łączy z AI w bardzo bezpośredni sposób.Jak?Algorytmy już dotykają naszych relacji społecznych i naszych codziennych interakcji. Robią to, dzieląc ludzi na kategorie – na wartościowych i niewartościowych w jakimś aspekcie życia. Klasyfikują, filtrują, oceniają – właśnie do tego te systemy są stworzone. I one są w stanie robić to na coraz bardziej drobiazgowym poziomie: w rekomendacjach muzycznych, aplikacjach randkowych, diagnozie stanu zdrowia czy sytuacji finansowej. Jednak w szerszym wymiarze jest to spójne z ruchami politycznymi, które dokładnie tego pragną – uznania jednych ludzi za wartościowych, a innych za zbędnych. Image „Jednym z głównych, podstawowych aspektów działania narzędzi opartych na sieciach neuronowych jest optymalizacja – odrzucanie tego, co nie odpowiada założonym rezultatom albo odbiega od wzorca, i powtarzanie procesu od nowa”.Używasz słowa „faszyzm”, które zazwyczaj jednak rozumiemy w pewnym bardzo konkretnym historycznym sensie. Mówiąc o współczesnym faszyzmie, masz na myśli pokusę optymalizacji życia społeczeństw z pominięciem procesu demokratycznego, czy tak?Strzał w dziesiątkę! Odpowiedź zawiera się w pytaniu. Jednym z głównych, podstawowych aspektów działania narzędzi opartych na sieciach neuronowych jest optymalizacja – odrzucanie tego, co nie odpowiada założonym rezultatom albo odbiega od wzorca, i powtarzanie procesu od nowa. Dokładnie tak wygląda uczenie maszynowe. To dlatego mówię, że AI się nie da zdemokratyzować, a także – że nie chodzi wyłącznie o zagrożenie wykorzystania AI przez siły autorytarne. Istotny jest pewien model działania, który można najszerzej nazwać „tendencją eugeniczną”.Co to znaczy?To model działania AI, który da się wyprowadzić z logiki, która stoi u jej podstaw. Idąc za sposobem, w jaki AI jest wdrażane, bardzo łatwo dojść do wniosku, że odpowiedzią na problemy współczesnych społeczeństw jest jakaś forma eugeniki. Przecież już dziś istnieją olbrzymie nierówności w dostępie do ochrony zdrowia, w szacunkowej przeżywalności – w zależności od tego, z jakiej grupy społecznej kto się wywodzi; w podejściu do migrantów – w zależności od tego, skąd pochodzą. AI służy do udoskonalenia procesów, które mają decydować o wartości ludzkiego życia. Przykład z polityką wobec migrantów jest świetny, bo obrazuje, że bez względu na to, ile pudru praw człowieka i humanitaryzmu nałożymy, w rezultacie mamy precyzyjnie określić, ile osób ma umrzeć. I AI nadaje się do tego wyśmienicie.I teraz odpowiedzmy sobie na pytanie, czy to przypadek, że jednocześnie z Doliny Krzemowej płyną idee pronatalizmu dla mądrych i bogatych, walki o przetrwanie białego człowieka, lęku przed „wielkim zastąpieniem”. Popatrzmy, jak dobrze te idee zaszczepiają się w polityce tożsamości europejskiej prawicy, jak dały o sobie znać na ulicach angielskich miast podczas niedawnych zamieszek. Image „Jestem optymistą, bo jak mówiłem, opieranie się AI nie polega tylko na walce z nieuchwytnymi systemami, ale jest częścią tworzenia odpowiedzi na pytanie, jakiej wspólnoty i jakiego porządku chcemy”. Zdjecie: A.DINAUT | UnsplashI tego twoim zdaniem chcą elity Doliny Krzemowej?Próbuje przekonać ludzi, żeby spojrzeli na problem z AI jak na antyegalitarne idee społeczne przekładające się jeden do jednego na język matematycznych, technicznych operacji. Za AI stoi konkretna wizja tego, jak społeczeństwo powinno działać, oraz dość ekstremalne ideologie, które służą wyrażeniu tego pomysłu. Tworzący sztuczną inteligencję ludzie mówią nam wprost, czego chcą. Powinniśmy im uwierzyć.To dlaczego, jak mówisz, pozostajesz optymistą?Jestem optymistą, ponieważ wiem, że w przeszłości udawało się opierać niesprawiedliwości, a i współcześnie potrafimy wypracować alternatywne sposoby organizacji społecznej i relacji z naszą planetą. A jednocześnie i wiemy z historii, i widzimy dziś na własne oczy, jak koszmarnie mogą wyglądać sprawy, jak daleko może zajść okrucieństwo i ludobójstwo. Jestem optymistą, bo jak mówiłem, opieranie się AI nie polega tylko na walce z nieuchwytnymi systemami, ale jest częścią tworzenia odpowiedzi na pytanie, jakiej wspólnoty i jakiego porządku chcemy. Jest częścią walki z ekstraktywistycznym modelem kapitalizmu, który zmienia tylko punkt oparcia z ropy naftowej na inne „minerały”. Tak w podejściu do AI, jak i do zmian klimatycznych, ochrony środowiska i energetyki – użyteczna jest kategoria sprawiedliwej transformacji.Nie wierzę, że opór przeciwko faszyzmowi dokona się ot, tak po prostu – sam z siebie. Ale będę do niego wzywał i wierzę, że działające dziś ruchy społeczne mają potencjał, by połączyć siły, i zdolność do przedstawienia lepszej wizji świata. Jakub Dymek Autor *Dan McQuillan – wykładowca akademicki na Goldsmiths – University of London, autor książki Resisting AI, z wykształcenia fizyk, od lat pracuje przy projektach obywatelskich z osobami doświadczającymi wykluczenia społecznego, publikuje w mediach. Jego teksty można znaleźć na jego stronie internetowej. Temat sztuczna inteligencja Poprzedni Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Wdrożenie aktu o sztucznej inteligencji. Czy polski rząd utrzyma zakazy? Polska wdraża unijny akt o sztucznej inteligencji. Rząd nie skorzystał z możliwości przyznania służbom prawa do stosowania technologii rozpoznawania twarzy. Zmian wymaga jednak koncepcja działania Komisji ds. Rozwoju i Bezpieczeństwa AI. 18.11.2024 Tekst Podcast Przyszłość jest teraz. Rozmowa z Adrianem Zandbergiem Jak wizja rozwoju lidera partii Razem różni się od wizji rozwoju Premiera Mateusza Morawieckiego? Czy wiedza Facebooka i Google’a może służyć społeczeństwu? Kto i za co zapłaci cyfrowy podatek? O wizję Nowego Cyfrowego Ładu zapytaliśmy Adriana Zandberga. 05.12.2019 Dźwięk Poradnik AI Act w działaniu: co się stanie z deepfake’ami? Sprawa studentki, której twarz została wykorzystana do stworzenia pornograficznego deepfake’a, stała się na tyle głośna, że powstał o niej film Another Body. Czy AI Act sprawi, że nikt więcej nie zostanie skrzywdzony deepfakiem? 25.04.2024 Tekst