„Przestańmy myśleć o rozwoju AI jak o wyścigu" – wywiad z Ambą Kak

Artykuł
24.01.2025
16 min. czytania
Tekst
Image
Spiralne schody

Dziś rozwój AI jest napędzany przez rywalizację mocarstw i międzynarodową konkurencję. Ale poza największymi graczami – wszyscy na tym tracą.

Wywiad z Ambą Kak przeczytasz za darmo.

Wspieraj tworzenie treści i walkę o sztuczną inteligencję dla ludzi.

Jakub Dymek: W jakim stopniu nasza narracja na temat sztucznej inteligencji jest ukształtowana i zdominowana przez zagadnienie międzynarodowej rywalizacji, przede wszystkim tej amerykańsko-chińskiej?

Amba Kak*: Zbadaliśmy to. Okazuje się, że w ciągu ostatniej dekady, ilekroć pojawiał się temat regulacji wielkich firm technologicznych, wtedy najmocniej i najbardziej jawnie wracał „argument chiński”. To znaczy powtarzanie, że jeśli uregulujemy Google’a czy Facebooka, to ostatecznie wygrają na tym Chiny.

Rywalizacja międzynarodowa zdominowała dyskusję na tematy technologiczne – i to nie tylko w dziedzinie sztucznej inteligencji, ale też nowych inwestycji w przemysł w ogóle. W przekazie rządów kolejnych państw wyczuwalna jest atmosfera strachu. Strachu, że ktoś nas wyprzedzi, że zostajemy albo że już zostaliśmy w tyle. Nie jest tajemnicą, że chodzi o Chiny, nawet jeśli nie mówi się tego wprost.

Przy okazji warto jednak zadać ciekawsze pytanie…

Image
Amba Kak stoi

Amba Kak, Źródło: AI NOW Institute

To znaczy?

Zapytać nie tylko o to, jak często rywalizacja USA i Chin wraca w tej dyskusji, ale też kto na tym najwięcej zyskuje. W czyim interesie leży ukazywanie tematu sztucznej inteligencji przez pryzmat konkurencji i międzynarodowego wyścigu?

Słucham zatem.

Najczęściej chodzi o interes ludzi związanych z sektorem obronnym; zainteresowanych tym, żeby zacząć postrzegać AI w kontekście militarnym. Ale na przyjęciu tej perspektywy zyskują wszyscy najwięksi gracze w branży. Przyjrzyjmy się narracji, która jest dziś sprzedawana rządom na całym świecie. Według niej sztuczna inteligencja jest tak istotna, że wspierania jej rozwoju po prostu odpuścić nie można. I nie chodzi już o to, żeby nie krępować rozwoju regulacjami i biurokracją. Mowa o czymś więcej: państwa powinny zadbać o dostarczenie energii, infrastruktury i inwestycji niezbędnych do tego, żeby branża AI odniosła sukces. To wyjątkowy i bardzo ciekawy przypadek polityki przemysłowej. Widzimy przedstawicieli przemysłu – w tym przypadku przemysłu związanego z AI – przekonujących rządy, że zadaniem państwa jest zasponsorować tę konkretnie branżę lub w inny sposób zagwarantować jej powodzenie. Że jest to wręcz kluczowe dla samej demokracji.

Image
Chiny na globusie

„Przeczytajmy, co Sam Altman, szef OpenAI (twórcy aplikacji ChatGPT), pisze na stronach Washington Post. «To USA i nasi sojusznicy muszą zbudować i kontrolować AI, bo inaczej ktoś inny – Chiny albo Putin – wygra. Autokraci chcą nas przegonić»”. Zdjecie: Christian Lue | Unsplash

W jaki sposób?

Przeczytajmy, co Sam Altman, szef OpenAI (twórcy aplikacji ChatGPT), pisze na stronach Washington Post. „To USA i nasi sojusznicy muszą zbudować i kontrolować AI, bo inaczej ktoś inny – Chiny albo Putin – wygra. Autokraci chcą nas przegonić. My albo oni, nie ma trzeciej opcji”… i tak dalej. Podsumujmy: jeden z najważniejszych graczy w świecie AI pisze, że rządy całego zachodniego świata muszą chronić i wspierać tę branżę, inwestować w otwarte i demokratyczne AI, bo inaczej przegra demokracja, sukces na miarę otwartego Internetu się nie powtórzy, a światem będzie rządzić „autorytarne AI”.

I zupełnym przypadkiem: taka polityka, która jest dobra dla demokracji, jest dobra również dla OpenAI i jej szefa Sama Altmana.

Trudno powstrzymać się od odrobiny powątpiewania czy cynizmu, prawda? Z mojej perspektywy to nieco dziwne, że działania na rzecz bezpiecznej przyszłości ludzkości i uratowania demokracji jako takiej są zbieżne akurat z priorytetami jednej wielkiej firmy i garstki ludzi, do których ostatecznie trafią zyski.

Image
Noga na asfalcie

„Jeśli myślimy o obecnym rozwoju o sztucznej inteligencji jak o wyścigu, to każdą próbę krytyki, regulacji czy poddania algorytmów bardziej demokratycznej kontroli można przedstawić jako ustawianie przeszkód i próbę spowolnienia”. Zdjęcie: Wyron A | Unsplash 

Czyli twoim zdaniem do tego służy ta metafora wyścigu?

Tak. Ścigamy się o przyszłość i demokrację, choć nie do końca wiadomo, gdzie jest meta, na czym polega ta rywalizacja, jakie są zasady i jaka jest nagroda. Ważne, że to wyścig. A założenie – czasem niedopowiedziane, czasem wyłożone wprost – jest takie, że inni zaraz nas wyprzedzą albo już wyprzedzili. Ta metafora jest bardzo użyteczna dla wielkich graczy z branży AI. Już tłumaczę dlaczego. Jeśli myślimy o obecnym rozwoju o sztucznej inteligencji jak o wyścigu, to każdą próbę krytyki, regulacji czy poddania algorytmów bardziej demokratycznej kontroli można przedstawić jako ustawianie przeszkód i próbę spowolnienia.

Ale co złego w tym, że ktoś chce ten wyścig wygrać?

Możemy zgadywać, co jest na linii mety. Może AGI, Artificial General Intelligence, czyli uogólniona sztuczna inteligencja, prawdziwie myślący i rozumujący algorytm – a może coś równie fantastycznego? Na razie wszyscy obok trasy wyścigu (społeczeństwa, pracownicy, ludzie, na których się bez ich wiedzy testuje algorytmy) tracą. Wielka akumulacja bogactwa, do której prowadzi wyścig AI, służy zaś garstce. Całej reszcie społeczeństwa metafora wyścigu AI szkodzi. Choćby z tego powodu warto ją odrzucić – lub choćby zapytać: „O co my się właściwie ścigamy?”.

Image
Pielęgniarki strajkujące w Kaliforni

„Największy związek zawodowy pielęgniarek w USA z tego też powodu protestuje przeciwko wdrażaniu bez konsultacji i testów AI do ich zawodu. […] Pielęgniarkom i pielęgniarzom wmawia się, że AI jest odpowiedzią na deficyt personelu i sposobem, by zwiększyć efektywność. A one odpowiadają, że problemem jest zatrudnianie przez amerykańskie szpitale mniejszej liczby pielęgniarek niż potrzeba! A AI w niektórych dziedzinach tylko dokłada obowiązków i komplikuje pracę tym już i tak za mało licznym zespołom”. Na zdjęciu protestujący pracownicy. Źródło: National Nurses United.

A jeśli o dobrobyt, o większy wzrost gospodarczy czy o poprawę jakości działania instytucji publicznych? Czy to nie są wartościowe cele?

Oczywiście, słyszymy nie tylko o wyścigu i międzynarodowej rywalizacji, ale też o potencjalnie wielkim wpływie AI na to, jak żyjemy. Jednak drobiazgowa analiza zapowiedzi rewolucji naukowej, niezwykłego wzrostu produktywności gospodarek itd. przeczy tym obietnicom. Spójrzmy chociażby na ochronę zdrowia, czyli tę dziedzinę, gdzie wdrożenie sztucznej inteligencji budzi największe nadzieje. Metaanaliza ponad 30 różnych badań opublikowana na stronach prestiżowego pisma naukowego Nature pokazała, że wdrożenie AI w ochronie zdrowia nie prowadzi wprost do zwiększenia efektywności i oszczędności czasu. Choćby dlatego, że przypadki błędów, konieczność ich naprawy i tak spada na personel, dokładając mu pracy. Największy związek zawodowy pielęgniarek w USA z tego też powodu protestuje przeciwko wdrażaniu bez konsultacji i testów AI do ich zawodu…

…bo AI zabierze im pracę?

Nie. Pielęgniarkom i pielęgniarzom wmawia się, że AI jest odpowiedzią na deficyt personelu i sposobem, by zwiększyć efektywność. A one odpowiadają, że problemem jest zatrudnianie przez amerykańskie szpitale mniejszej liczby pielęgniarek niż potrzeba! A AI w niektórych dziedzinach tylko dokłada obowiązków i komplikuje pracę tym już i tak za mało licznym zespołom. I tu wracamy do pozornie banalnego, ale kluczowego pytania. Komu służy AI? Czy aby na pewno tym ludziom, którym miało pomóc?

Ale to wszystko, o czym mówisz, zdaje się nie mieć wpływu na postawę rządów czy instytucji europejskich. Pierwszy z brzegu przykład Wielkiej Brytanii. Rząd Partii Pracy od razu po wyborach obiecał odważniejsze podejście do AI, wykorzystanie nowych technologii do cięcia kosztów administracji. Premier Keir Starmer mówił niedawno o tym, że nie wypada nie skorzystać z „potencjału zrewolucjonizowania usług publicznych”.

Dla mnie przykład brytyjski jest być może najsmutniejszy ze wszystkich. Mam wrażenie, jakbyśmy się cofnęli w czasie o jakieś 25 lat i ponownie słuchali zapowiedzi, jak to nowe technologie przyniosą najróżniejsze dobrodziejstwa, wzrost gospodarczy, oszczędności na biurokracji i jak zdynamizują kulejące usługi publiczne.

Ale jest jeden pożytek z tej retoryki. Widzimy dzięki niej, że hasło AI służy jako maska czy kostium dla polityki zaciskania pasa. W ten sposób można proponować i narzucać oszczędności w ochronie zdrowia, systemie świadczeń socjalnych czy administracji publicznej – tylnymi drzwiami i nie nazywając ich po imieniu.

Image
król midas zamienia rzeczy w złoto

„W amerykańskim stanie Michigan, gdzie system nazwany MiDAS miał odbierać niesłusznie przyznane zasiłki. Okazało się, że pomylił się w 40 tysiącach przypadków. Poziom błędnych decyzji podejmowanych przez algorytm sięgał 93%. Te decyzje poskutkowały bankructwami rodzin, samobójstwami, kłopotami ze zdrowiem, znalezieniem pracy czy spłaceniem długów. Dochodzenie odszkodowań trwało latami”. Grafika to obraz Michelangelo Cerquozziego. Król Midas, do którego imienia nawiązuje system, zostaje na własne życzenie przeklęty. Zamienia wszystko, czego dotknie, w złoto. Nie wykluczając jedzenia, wody i własnej córki. Jak ironiczne jest używanie tego imienia w kontekście  oceny przyznawania zasiłków dla bezrobotnych.

W jaki sposób?

Mówisz ludziom: „Dalej będą normalne świadczenia, nikomu nic nie zabieramy, tylko teraz decyzję o ich przyznawaniu będzie podejmował algorytm”. Tak było w amerykańskim stanie Michigan, gdzie system nazwany MiDAS miał odbierać niesłusznie przyznane zasiłki. Okazało się, że pomylił się w 40 tysiącach przypadków. Poziom błędnych decyzji podejmowanych przez algorytm sięgał 93%. Te decyzje poskutkowały bankructwami rodzin, samobójstwami, kłopotami ze zdrowiem, znalezieniem pracy czy spłaceniem długów. Dochodzenie odszkodowań trwało latami.

Ale najciekawszą rzecz usłyszałam od jednego z prawników reprezentujących ofiary tej afery. „A może to nie jest błąd systemu, ale jego zamierzony cel? Jeśli chodzi o to, żeby odciąć ludzi od pomocy, to przecież wdrażanie podobnych narzędzi jest całkowicie logiczne”. To prowokuje do pytań nie o to, co te algorytmy mają zoptymalizować w czysto technologicznym sensie, ale – w politycznym. Dyskusja o ich zastosowaniu nie powinna się toczyć wyłącznie w gronie ludzi znających się na technologiach. Powinna uwzględniać tych, których zastosowanie AI może dotyczyć.

Chciałbym wrócić do tego, od czego zaczęliśmy, czyli do regionalnych czy narodowych ambicji i polityki przemysłowej dla AI. Europa ma szansę na niezależność?

Brutalna prawda wygląda tak, że przy obecnej strukturze rynkowej inwestowanie w AI, szczególnie w dużej skali, to transfer pieniędzy do kilku największych światowych graczy na prywatnym rynku, którzy kontrolują kluczową infrastrukturę: chmurę, modele fundacyjne, produkcję chipów. Większość rozwoju AI to budowanie na szczycie tzw. stosu, czyli tej już istniejącej i skoncentrowanej w rękach wąskiej grupy podmiotów infrastruktury. Europejscy podatnicy mogą więc zadawać sobie pytanie, czy warto wydawać ich pieniądze w sposób, który bardzo szybko przekieruje je nie tylko z dala od ich ojczyzn, ale w ogóle poza Europę.

Image
Chip z podpisem "chatGPT"

„Większość rozwoju AI to budowanie na szczycie tzw. stosu, czyli tej już istniejącej i skoncentrowanej w rękach wąskiej grupy podmiotów infrastruktury. Europejscy podatnicy mogą więc zadawać sobie pytanie, czy warto wydawać ich pieniądze w sposób, który bardzo szybko przekieruje je nie tylko z dala od ich ojczyzn, ale w ogóle poza Europę”. Grafika: Boliviainteligente | Unsplash

Chciałbym wrócić do tego, od czego zaczęliśmy, czyli do regionalnych czy narodowych ambicji i polityki przemysłowej dla AI. Europa ma szansę na niezależność?

Brutalna prawda wygląda tak, że przy obecnej strukturze rynkowej inwestowanie w AI, szczególnie w dużej skali, to transfer pieniędzy do kilku największych światowych graczy na prywatnym rynku, którzy kontrolują kluczową infrastrukturę: chmurę, modele fundacyjne, produkcję chipów. Większość rozwoju AI to budowanie na szczycie tzw. stosu, czyli tej już istniejącej i skoncentrowanej w rękach wąskiej grupy podmiotów infrastruktury. Europejscy podatnicy mogą więc zadawać sobie pytanie, czy warto wydawać ich pieniądze w sposób, który bardzo szybko przekieruje je nie tylko z dala od ich ojczyzn, ale w ogóle poza Europę.

O, to ciekawe. I co słyszycie?

Zazwyczaj nie mają tego dobrze przemyślanego. Najlepszy argument, z jakim się spotykamy, brzmi następująco: „Musimy wprowadzać jakieś zachęty finansowe, żeby nasi najlepsi innowatorzy zostali w kraju i chcieli korzystać z publicznie dofinansowanej infrastruktury, np. mocy obliczeniowych, i tu tworzyli swoje modele”. Można stać na stanowisku, że w oderwaniu od innych potrzeb państwa, czysto abstrakcyjnie rzecz biorąc, jest to słuszny cel sam w sobie. Ale już pytanie, czy te same pieniądze nie byłoby lepiej zainwestować w zagwarantowanie niezbędnej i podstawowej infrastruktury publicznej dla wszystkich obywateli – nie tylko innowatorów – komplikuje sprawę. Gdyby do głosu dopuścić organizacje społeczne czy innych interesariuszy, mogłoby się okazać, że istnieje inne spojrzenie, choć tego głosu krytycznego do tej pory nie było słychać.

Ale czy to znaczy, że nie jesteś w stanie wskazać uzasadnionego społecznie powodu, dla którego państwo małej lub średniej wielkości miałoby inwestować we własny model AI?

Sama ambicja jest… Jakby to ująć? Spróbujmy tak: nie sądzę, że dziś państwa narodowe są w stanie poświęcić środki wystarczające do tego, aby zbudować od podstaw własny model, który choćby w połowie był w stanie konkurować z tymi istniejącymi na rynku. W związku z tym rzucają jakimiś drobnymi w kierunku problemu pod tytułem AI i liczą, że slogan o wielkich publicznych inwestycjach się przyjmie.

O jakich kwotach mówimy? Jaki to rząd wielkości?

Unijna inicjatywa założyła fundusz o wartości 3 miliardów euro na budowę superkomputerów. Analogiczny program federalny w USA dał niedawno na podobny cel 2,6 miliarda dolarów. Wydaje się, że to astronomiczne kwoty, prawda? Ale inwestycje firmy Amazon w samym stanie Virginia, od kiedy zaczęli budować tam centra danych, przekroczyły już 63 miliardów dolarów. A tylko w 2024 roku do nowego projektu superkomputera do trenowania AI Amazon dołożył kolejne 8 miliardów. Może warto zrobić krok wstecz i spojrzeć z pewnego dystansu na przepaść, jaka dzieli publiczne środki inwestowane w tę działkę a nakłady największych korporacji. Bo jeśli chodzi o to, żeby każdy zbudował sobie własną wersję aplikacji ChatGPT (BritGPT i tak dalej) – to obawiam się, że jest to przedsięwzięcie skazane na porażkę. 

Czyli na poziomie państwa narodowego, które nie jest mocarstwem jak USA czy Chiny, nie ma żadnej dobrej polityki przemysłowej dla AI, a są wyłącznie złe?

Sięgnę po przykład z Indii. To bynajmniej nie kategoria małych czy średnich państw, ale wciąż o ograniczonych zasobach. Z rządu indyjskiego, od pewnych jego frakcji, płyną sygnały, że nie będzie próby budowy wielkiego modelu indyjskiego AI, ale raczej wsparcie ekosystemu mniejszych modeli wytrenowanych do robienia konkretnych rzeczy wynikających z potrzeb lokalnych społeczności. Wciąż mam wiele wątpliwości względem przykładów użycia podobnych narzędzi. Zastanawiam się, na ile da się zweryfikować to, że one rzeczywiście odpowiadają na precyzyjnie zdefiniowane problemy. Ale to i tak nie jest to najgorsza ścieżka. Najgorszy jest pomysł rzucenia się do budowy wielkiego modelu AI bez refleksji, czy to w ogóle osiągalne.

A jakieś pozytywne przykłady?

To jest bardzo trudne pytanie, bo z tego, co obserwujemy, trudno wyłonić jakieś warte naśladowania czy pochwały przykłady. Można wskazać ogólne prawidłowości. Publiczne inwestycje sprawdzają się najlepiej w tych obszarach, gdzie prywatny biznes nie widzi zysku. Tradycyjnie rząd inwestował w tych sektorach, gdzie potrzebna była duża skala działań i nie było pewnego i łatwego zwrotu.

Lekcja, jaką przynosi historia Internetu i rozwoju technologii dzięki amerykańskim wydatkom na obronność, jest w kontekście AI dość przewrotna. Internet nigdy by nie powstał, gdyby nie publiczne inwestycje w badania i infrastrukturę. Z AI jest na odwrót: firmy i prywatni inwestorzy już zainwestowali fortunę w rozwój tej dziedziny, nie przejmując się ryzykiem i odroczonym zwrotem. Teraz niejako zapraszają rządy do gry, aby te dosypały więcej pieniędzy. Gdybym miała doradzać rządom, powiedziałabym: „Nie przyjmujcie tej propozycji”. 

Inwestycje w AI były ryzykiem tych firm. Rząd nie ma obowiązku gwarantować powodzenia i zwrotu z tych inwestycji ani też do nich dopłacać.

Co zamiast tego?

Doradzałabym myślenie w kategoriach tworzenia klastrów innowacji i badań, które wychodzą z potrzeb konkretnych sektorów (np. ochrony zdrowia) i otrzymują środki na rozwiązanie problemów najpilniejszych dla danego obszaru– czyli tak naprawdę dość tradycyjny model inwestycji publicznych, a nie podążanie z funduszami tam, gdzie wskaże to w danej chwili wola rynku.

Może te obszary polityki publicznej i życia społecznego, które wymagają najpilniejszych interwencji – jak mieszkalnictwo, ochrona zdrowia, opieka i transport publiczny – to również te dziedziny, gdzie big data, algorytmy, wielkie modele AI nie są aż tak użyteczne?

Dokładnie tak! Im bardziej krytyczni robią się ludzie wobec AI, tym częściej słyszą w odpowiedzi: „Rozumiem, że nie podoba ci się, co AI robi dziś, ale chętnie pomożemy. Podaj przykład, jak AI powinno rozwiązać problem mieszkaniowy?”. Ale AI tego nie rozwiąże!

Nie powinniśmy zaczynać walki z problemami społecznymi od końca – czyli od założenia, że skoro mamy tę magiczną technologię, to wystarczy się zastanowić, jak przyłożyć ją do czegokolwiek i spodziewać się dobrego rezultatu. Powinniśmy zerwać z logiką szukania problemów w kształcie sztucznej inteligencji – czyli ujmowania wyzwań dla współczesnych społeczeństw w taki sposób, by oczekiwane rozwiązanie miało kształt AI. Czasami to po prostu niemożliwe.

*Amba Kak – dyrektorka współzarządzająca w AI NOW Institute, niezależnym think tanku politycznym zajmującym się opracowywaniem strategii przeciwko nadużyciom i oligarchizacji sektora sztucznej inteligencji. Była również doradczynią amerykańskiej federalnej agencji antymonopolowej i zasiada w zarządach Fundacji Signal i Fundacji Mozilla.

Newsletter

Otrzymuj informacje o działalności Fundacji

Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje danejakie jeszcze prawa ci przysługują, w Polityce prywatności.