Artykuł 28.03.2025 13 min. czytania Tekst Image Czasami rozróżnienie na tzw. zaawansowane AI i zwykły, głupi formularz jest zbędne. Jeśli system jest okrutny – to jest okrutny. Zapraszamy na wywiad Jakuba Dymka z Alim Alkhatibim.Ten wywiad przeczytasz za darmo.Wspieraj tworzenie treści i walkę o sztuczną inteligencję dla ludzi.Jakub Dymek: Co perspektywa antropologa wnosi do zagadnienia algorytmów?Ali Alkhatib*: Kilka rzeczy. Po pierwsze, wrażliwość na perspektywę ludzi, którzy mają codzienne doświadczenie z napędzanymi algorytmami systemami – tak wielkimi, że w pojedynkę człowiek nie jest w stanie tego pojąć. Po drugie, antropologia pozwala podejść do tej wiedzy z pokorą i szacunkiem. Po trzecie, umożliwia umieszczenie aktualnych wydarzeń w historycznej i teoretycznej perspektywie, dzięki czemu nie wydają się one wyjątkowe, ahistoryczne i odpolitycznione. Image Ali Alkhatib, źródłoSkoro mówimy o historycznym i politycznym kontekście… W czym sztuczna inteligencja i zaawansowane algorytmy przypominają biurokrację?Od kilku lat staram się patrzeć na działanie algorytmów jak na to, co socjologowie i badacze polityki nazywają „biurokracją pierwszego kontaktu”. Ten termin określa, jak system działa wobec ciebie, gdy spotkasz policjanta, urzędniczkę, osobę rejestrującą w szpitalu. W pewnym sensie funkcjonowanie zaawansowanych algorytmów (także tych wykorzystujących uczenie maszynowe) i biurokracji jest podobne. Masz zestaw zasad i przepisów, których się uczysz, a następnie je stosujesz.Zatem w czym problem?Pozornie analogia się trzyma. Ale zauważmy, że uczenie maszynowe i ludzka administracja działają fundamentalnie inaczej. Urzędnik czy funkcjonariusz publiczny pracuje na podstawie danych przepisów, ale każda sytuacja jest do pewnego stopnia nowa. Za każdym razem to człowiek decyduje, których przepisów użyć i jak bardzo ściśle je potraktować. Kolejne przypadki w pracy będą się różnić od tych opisanych w podręcznikach. Czasami stosowanie przepisów dosłownie będzie wręcz przeciwskuteczne i nie pozwoli osiągnąć założonego efektu. Zatrzymywanie każdego kierowcy za przekroczenie limitu prędkości o kilometr na godzinę nie uczyni przecież ruchu bardziej bezpiecznym i płynnym. Ale także odwrotnie: czasami, choćby w trudnych warunkach pogodowych, należałoby do pewnych zasad bezpieczeństwa podejść jeszcze bardziej restrykcyjnie. Z algorytmami jest inaczej: one nie uczą się w trakcie podejmowania decyzji – tylko przed.I to masz na myśli, kiedy piszesz, że algorytmy próbują zmusić ludzi do „życia w ich utopii”?Tak. Ludzie za punkt odniesienia biorą rzeczywistość – algorytmy natomiast za punkt odniesienia biorą model rzeczywistości i do niego dostosowują swoje działania. W ten sposób narzucają nam decyzje, wzorce zachowań i kategorie mające pasować do danych, którymi dysponują i na których ich uczono. Chodzi o to, abyśmy postępowali w zgodzie z ich danymi na temat świata. Dlatego piszę, że decyzje podejmowane przez algorytmy z naszego punktu widzenia po prostu muszą być nielogiczne czy absurdalne. Image „Czasami stosowanie przepisów dosłownie będzie wręcz przeciwskuteczne i nie pozwoli osiągnąć założonego efektu. Zatrzymywanie każdego kierowcy za przekroczenie limitu prędkości o kilometr na godzinę nie uczyni przecież ruchu bardziej bezpiecznym i płynnym. Ale także odwrotnie: czasami, choćby w trudnych warunkach pogodowych, należałoby do pewnych zasad bezpieczeństwa podejść jeszcze bardziej restrykcyjnie”. Zdjęcie: Scott Warman | UnsplashJakie to ma konsekwencje polityczne?Zastanawiałem się nad tym od dłuższego czasu. Myślę, że możemy zrozumieć te konsekwencje, o ile przyjmiemy, że AI jako projekt polityczny służy centralizacji i konsolidacji władzy w rękach wąskiej grupy osób. Uważałbym jednak z tym, jak je nazwiemy. Powiedzmy, że chodzi o technoelitę – ludzi, którzy programują i decydują o tym, jak działają systemy bazujące na algorytmach.Ten projekt zmierza do tego, by w kolejnym kroku wywalczyć sobie wolność od odpowiedzialności prawnej za decyzje podjęte przez algorytmy (przykładowo: nawet jeśli sterowany AI samochód potrąciłby kogoś na ulicy, nie można byłoby dochodzić odpowiedzialności). Pamiętajmy, że dla firm, które zajmują się wdrażaniem AI i algorytmicznych systemów podejmowania decyzji, od uzyskania takiej uprzywilejowanej sytuacji prawnej zależą inwestycje warte miliardy dolarów – i wyceny spółek idące w setki i tysiące miliardów. Firmy mają wiele środków na zmuszenie rzeczywistość poprzez prawo, by nagięła się do ich modelu. Jeśli im się powiedzie, narzucą to w kolejnych miejscach: tam, gdzie pracują ludzie, gdzie ludzie są nadzorowani i gdzie podlegają decyzjom podejmowanym przez algorytmy.Politycznie różnica polega na tym, że gdyby człowiek chciał dla siebie stworzyć podobny wyjątek, byłoby mu trudniej. Sądy pewnie nie zgodziłyby się na podobny brak odpowiedzialności za wypadek samochodowy, gdyby występowała o niego, dajmy na to, koalicja kierowców. Ale jeśli chodzi o algorytmy – to może się powieść.Rozumiem, dlaczego w przypadku algorytmów, które mają podejmować wiążące decyzje o ludziach (kto złamał prawo albo komu należy się refundacja zabiegu w szpitalu), to może budzić sprzeciw. Ale chyba usługi w rodzaju AI, które generują na życzenie obrazki czy odpowiadają na pytania, nie budzą takich kontrowersji?To zależy, kogo spytać. W ocenie wielu kobiet, z którymi rozmawiałem, generatywne AI wcale nie jest takie niewinne. Pomyślmy o konsekwencjach obrazków typu deepfake, które są w stanie zrujnować karierę albo życie osobiste. Ludzie zdają sobie sprawę, że te systemy niebawem mogą mieć bardzo duże konsekwencje dla życia jednostek, a nie ma się przed nimi jak bronić.Generowanie obrazków czy odpowiadanie na pytania to jeden ze sposobów, w jaki ludzie stykają się dziś z działaniem generatywnej sztucznej inteligencji – i m.in. dlatego budzi ona ich obawy. Inny przykład to wykorzystanie generatywnej sztucznej inteligencji w celu tworzenia pseudoprawniczego bełkotu, służącego do tego, aby odmówić jakiejś usługi, odrzucić wniosek, nie przyznać świadczenia czy nie uznać reklamacji. Coraz więcej ludzi poznaje tę twarz sztucznej inteligencji i „biurokracji pierwszego kontaktu” wielkich modeli językowych. Image „W ocenie wielu kobiet, z którymi rozmawiałem, generatywne AI wcale nie jest takie niewinne. Pomyślmy o konsekwencjach obrazków typu deepfake, które są w stanie zrujnować karierę albo życie osobiste”. Plakat filmu „Another Body” opowiadającego o ofiarze deepfake.A czy nie dzieje się tak przede wszystkim w przypadku decyzji dotyczących świadczeń i ochrony zdrowia?Rozmawiam o tym ostatnio dużo z przyjaciółmi w USA. Ubezpieczyciele używają narzędzi algorytmicznych, które mają zdecydować, czy komuś należy się jakieś świadczenie. Żeby użyć konkretnego przykładu: może chodzić o przydział elektrycznego wózka inwalidzkiego dla dziecka, które ma problemy z poruszaniem się. Sposób, w jaki patrzy na to ubezpieczyciel, jest następujący. Czy istnieje jakikolwiek paragraf albo scenariusz, do którego możemy się odwołać, żeby nie realizować tego świadczenia? Może jednak wystarczy zwykły wózek bez napędu? Może rodzic czy inna osoba powinna cały dzień pchać daną osobę? A może da się żyć bez wózka…?To nie jest hipotetyczny przykład, ale bardzo dosłowny opis codziennego podejmowania takich decyzji w USA. Dyskusje o naturze AI i regulacji konkretnych algorytmów w takim przypadku są wtórne…Dlaczego?Czy był to system oparty wielkim modelu językowym? Czy zakładał uczenie maszynowe? Czy po prostu był to algorytm wykonujący proste operacje w odniesieniu do zamkniętej listy bramek decyzyjnych i parametrów? Na poziomie tego dziecka, którego wnioski o wózek są odrzucane (czasami z nieludzką szybkością), fakt, czy robi to system algorytmiczny, czy człowiek korzystający z takiego systemu, jest bez znaczenia. Nawet jeśli – jak każą teraz wyroki sądów – udostępnimy ludziom dokumentację dotyczącą takich decyzji. Nie ma wcale gwarancji, że wnioskujący dojdą do sedna i będą mogli ponad wszelką wątpliwość dowieść, że spotkała ich niesprawiedliwość ze strony algorytmu. Czasami powinniśmy sobie zatem odpuścić sztuczne i zaciemniające perspektywę dyskusje definicyjne, a skupić się na samym doświadczeniu. Przyjąć perspektywę fenomenologiczną wobec systemów i instytucji, z którymi spotykamy się jako ludzie. Jeśli firma chce się upierać, że zawsze istnieje człowiek odpowiedzialny za decyzje – proszę bardzo. Niech się tym zasłania i niech rozwadnia odpowiedzialność. Ale skoro podejmuje decyzje niepotrzebnie okrutne, to powinniśmy tak je traktować. Istotne są skutki tego, jak działa biurokracja, w czyim interesie i w oparciu o jaką logikę. I tu wracamy do tego, dlaczego polityczne rozumienie tych procesów jest tak użyteczne.Ktoś tłumaczył mi ostatnio, że logika uczenia maszynowego bazuje na optymalizacji. Odrzucamy wyniki, które nie są optymalne; i jeszcze raz odrzucamy; i odrzucamy, dopóki nie uzyskamy pożądanych rezultatów. Oczywiście zastosowanie tego do funkcjonowania społecznego skutkuje tym, że życie niektórych zostanie uznane za nieoptymalne i niewarte kontynuacji. Myślisz podobnie?Wydaje mi się to przekonujące. Projekt usunięcia ze świata przypadkowości jest błędny. W rzeczywistości rzeczy nieprzewidywalne, niepasujące do wzorca, nieoczywiste będą się zdarzać cały czas. Nawet przy założeniu, że mimo to chcemy dążyć do świata pozbawionego przypadkowości, musielibyśmy dysponować systemami bardzo odpornymi na pomyłki. A tak nie jest! Jest odwrotnie: narzędzia, które nam towarzyszą w procesie automatyzacji, są bardzo nieodporne. Ale jest coś jeszcze, co wynika z optymalizacji.Tak?Gdy tworzysz system tak bardzo nakierowany na automatyczną obsługę kolejnych przypadków, to koszt i nakład pracy związane z indywidualnym podejściem do człowieka wzrastają. Skoro 99,9% spraw załatwiasz automatycznie, to dla biurokracji inne podejście do sprawy zaczyna wymagać 1000 albo 100 000 razy więcej zasobów i czasu. A zatem – przewrotnie – presja na to, by jeszcze więcej automatyzować, wzrasta. Wszystkie przypadki, których nie da się załatwić od ręki, należy wykluczać i odmawiać indywidualnego podejścia z całych sił. Bo jeszcze każdy człowiek – podejrzewając słusznie, że decyzje podjęte w jego sprawie mogły być wadliwe – zacznie się tego domagać…Można się temu sprzeciwić?Można w bardzo przekonujący sposób pokazać, że z uwagi na to, jak skutecznie firmy z branży technologicznej przechwyciły różne agencje regulacyjne na całym świecie, dalsze próby regulowania AI to próżny wysiłek. Jeszcze mocniej to widać w przypadku edukacji wyższej, gdzie bardzo trudno świadomie odmówić współpracy z firmami typu Microsoft, Google czy Facebook i nie być jednocześnie traktowanym podejrzliwie przez swoich własnych kolegów i koleżanki z wydziału. Dzisiaj za normę przyjmuje się to, że bierzesz od tych firm pieniądze, wysyłasz tam swoich studentów na staż i po zakończonej karierze akademickiej idziesz do jednej z nich do pracy. W takim otoczeniu rzeczywiście trudno zacząć rozmowę o tym, czy w ogóle potrzebujemy tyle AI i czy podobne rozwiązania powinny być wdrażane do naszych usług publicznych. Nie jestem przeciwnikiem technologii, ale uważam, że pomysły automatyzowania kolejnych obszarów życia i wprowadzania AI każdorazowo powinny umieć się obronić. Image „Sposób, w jaki patrzy na to ubezpieczyciel, jest następujący. Czy istnieje jakikolwiek paragraf albo scenariusz, do którego możemy się odwołać, żeby nie realizować tego świadczenia? Może jednak wystarczy zwykły wózek bez napędu? […] A może da się żyć bez wózka…”. Zdjęcie: Bruno Aguirre | UnsplashDziś jednak nikt nikogo nie pyta o zdanie. To zresztą chyba najpowszechniejszy i zarazem dość żenujący przykład: dostajemy usługi „wspomagane AI” w przeglądarce i w telefonie niezależnie od tego, czy tego chcemy, czy nie. Głupie, często niepotrzebne, niedopracowane, ale „AI musi być”. Jak się z tym zmierzyć?Zanim odpowiem, muszę zaznaczyć jedną rzecz. Rozwiązania indywidualne będą miały zawsze taki – indywidualny – charakter. I czasami łatwiej powiedzieć: „Nie korzystaj z YouTube’a, nie wrzucaj tam swoich nagrań”, niż realnie coś zrobić. Firmy takie jak Google zadbały przecież o to, by nie było konkurencyjnych i dostępnych możliwości. Ale można – tam, gdzie się da – skorzystać z dostawców usług, którzy nie planują wdrażać AI. Tak to wygląda na poziomie użytkownika.Co innego z organizacją i samoorganizacją branży, która jest za to odpowiedzialna, czyli sektora technologicznego. Tym, co pozwala, żeby np. Google wprowadził do przeglądarki Chrome takie narzędzia, jest fakt, że sami pracownicy Google nie są zorganizowani i nie mają prawa weta ani wpływu na kadrę zarządzającą niższego czy średniego szczebla. Nie mogą powiedzieć: „To nie ma sensu. Może i chcecie, żeby ludzie korzystali z tych funkcji, ale nie możecie ich zmusić”. Z historii Doliny Krzemowej wiemy, że zakładanie związków i negocjacje zbiorowe są traktowane wyjątkowo podejrzliwie (właśnie po to, by uniknąć tego typu sytuacji). Widzieliśmy jednak, że w przeszłości podobny sprzeciw zadziałał: były podejmowane próby wykolejenia czy też zerwania współpracy z sektorem zbrojeniowym mającej na celu tworzenie systemów do wykorzystania dla armii. Wiemy, że teraz dochodzi do pewnego zwrotu akcji: firmy z sektora technologicznego, w tym z sektora AI, znowu podejmują próbę zbliżenia się z wojskiem. Ale wcześniej opór się udał i może udać się ponownie.Czy możliwe, by ktoś, kto pracuje dla wielkiej platformy cyfrowej, się zbuntował?Oczywiście! Uwielbiam – choć to nie ja wymyśliłem te określenia – różne sabotaże i zatruwanie studni danych. Przykładowo artyści potrafią zawrzeć w cyfrowej pracy takie informacje, które uczynią jej obraz bezużytecznym dla maszynowego uczenia się algorytmów. Kierowcy i dostawcy mogą resetować swoją lokalizację, by uniknąć najbardziej niekorzystnych kursów czy tras. Nie brakuje najróżniejszych sposobów dywersji, aktów buntu i nieposłuszeństwa, które pozwalają się sprzeciwić pozornie wszechwładnym algorytmom. Choć wiem też, że dla wielu ludzi, którzy są zależni od pracy platformowej, którzy potrzebują tych zleceń do życia, których mogą czekać reperkusje zawodowe czy prawne nawet za małe akty oporu, to nie jest błaha rzecz.Jeśli ktoś czytał Jak wysadzić rurociąg?, to wie, że jeżeli spowodujemy wzrost kosztu działania jakiegoś systemu, może się przestać opłacać go utrzymywać i rozwijać. A to zmieni całą ekonomię polityczną przedsięwzięcia. Analogicznie jest z narzędziami algorytmicznymi – one będą wdrażane z taką łatwością tak długo, jak długo będzie to bezkosztowe albo jak długo nie powstanie wyraźna możliwość odmówienia korzystania z nich. *Ali Alkhatib – badacz interakcji człowiek–komputer, były dyrektor Centrum Stosowanej Etyki Danych przy Uniwersytecie w San Francisco Jakub Dymek Autor Temat sztuczna inteligencja Poprzedni Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł ChatGPT, czyli sztuczna inteligencja w twoim domu. Czas na regulacje Wiele wskazuje, że zima 2022/2023 r. to w historii technologii sztucznej inteligencji moment przełomowy. Nie chodzi jednak o nową rewolucję naukową (ta trwa już od dłuższego czasu), ale o popularyzację tematu. Wraz z geometrycznym wzrostem użytkowników i użytkowniczek produktów bazujących na… 15.02.2023 Tekst Artykuł Unia szykuje przepisy dotyczące AI: 5 problemów Przepisy wspierające innowacje i chroniące przed nadużyciami – tak miała wyglądać unijna regulacja sztucznej inteligencji. Jednak propozycja przedstawiona przez Komisję Europejską 21 kwietnia nie odpowiada na najważniejsze wyzwania związane z rozwojem AI: nie stawia granic dla najbardziej… 30.04.2021 Tekst Poradnik AI Act w działaniu: co się stanie z deepfake’ami? Sprawa studentki, której twarz została wykorzystana do stworzenia pornograficznego deepfake’a, stała się na tyle głośna, że powstał o niej film Another Body. Czy AI Act sprawi, że nikt więcej nie zostanie skrzywdzony deepfakiem? 25.04.2024 Tekst