Kto się godzi na cyfrowe odczłowieczanie? Sztuczna inteligencja na wojnie

Artykuł
10.02.2025
11 min. czytania
Tekst
Image
Kobieta w technologii

Broń autonomiczna nie przypomina kolejnej bomby atomowej. To raczej coś jak zakazana konwencjami amunicja kasetowa albo miny przeciwpiechotne. Zapraszamy na wywiad z dr. Catherine Connolly*.

Cykl wywiadów o sztucznej inteligencji przeczytasz za darmo.
Wspieraj wartościowe treści i patrz na ręce korporacjom!
Przekaż 1,5% podatku Fundacji Panoptykon
KRS 0000327613

Jakub Dymek: Dlaczego zewsząd słyszę, że państwa muszą inwestować w autonomiczną broń i że przyszłość konfliktów zbrojnych to AI?

Catherine Connolly: Po pierwsze, nie wszystkie państwa tego chcą. Przeciwnie, mamy rosnącą koalicję krajów, które postulują zakaz produkcji tego typu broni i jasno dały do zrozumienia, że same nie zamierzają przyłożyć do tego ręki. Zaś państwa, które narzucają narrację o nieuchronnym nadejściu autonomicznych broni i o tym, że od AI nie ma ucieczki, to często te kraje, które same mają w tym interes. Pierwszy i oczywisty powód, dla którego teraz tyle słyszymy o konieczności rozwoju broni autonomicznej, jest taki, że grupa państw eksportujących broń i prowadzących zaawansowane prace nad nimi może na tym zarobić.

Image
Catherine Connolly

Portret dr. Dr Catherine Connolly, źródło: Automated Decision Research

Wkoło słyszymy też, że jeśli „my” nie wejdziemy w produkcję tego typu broni, ktoś inny zrobi to za nas. I że na państwach demokratycznych spoczywa moralny imperatyw, by to właśnie one opanowały śmiercionośne roboty dla potrzeb obrony naszych wartości. Ale w podkręcaniu hype’u dotyczącego użycia AI do celów militarnych chodzi również o to, żeby jeszcze bardziej obniżyć próg dopuszczalności prowadzenia konfliktów zbrojnych.

To znaczy?

Wszystkim rządom zależy na tym, by ograniczyć ryzyko dla własnych żołnierzy. Im bardziej bezpieczny w ich ocenie będzie konflikt zbrojny, tym bardziej akceptowalny politycznie się stanie – i łatwiej będzie w niego wejść. Oczywiście, ryzyko przerzucane jest na ludność cywilną. Inna sprawa, że zapewnienia o tym, jak precyzyjna, bezpieczna i tania w użyciu jest broń kierowana AI, często okazują się fałszywe. Dlatego chcemy, aby działania na rzecz podpisania międzynarodowych traktatów nabrały tempa.

Jakie to działania?

W ciągu ostatnich dwóch lat dwie rezolucje na temat regulacji tematu broni autonomicznej w prawie międzynarodowym zdobyły bardzo szerokie poparcie na Zgromadzeniu Ogólnym Organizacji Narodów Zjednoczonych. Z naszego monitoringu stanowisk państw wynika, że dziś 129 krajów na całym świecie popiera próby wynegocjowania nowego prawa międzynarodowego i w szczególności traktatu o broni autonomicznej. Kolejne konferencje i wysiłki dyplomatyczne w ramach ONZ i poza nim naprawdę nabrały już rozpędu. W Genewie od ponad dekady trwa negocjowanie konwencji o zakazie lub ograniczeniu użycia pewnych typów broni konwencjonalnych (intencją jest rozszerzenie przepisów o broń autonomiczną).

Jednak grupa państw o rozwiniętym sektorze zbrojeniowym, w tym Rosja, wykorzystuje – a właściwie nadużywa – reguły konsensusu, by zatrzymać postęp tych rozmów. Dlatego poza tymi rozmowami potrzebujemy innych formatów, by ten realny sprzeciw wobec rozwoju broni autonomicznych przekuć w nowe umowy międzynarodowe. Nie tylko widzimy już poparcie wielu krajów, ale także zarys zgody na temat tego, co powinno podlegać ograniczeniu czy zakazowi.

Image
Dron Bayraktar TB2

„Temat autonomicznej broni często jest redukowany do dronów. Ale to błąd. Musimy pamiętać, że niemal każdy rodzaj broni prędzej czy później (w połączeniu z rozpoznawaniem twarzy, zaprogramowanym profilem celu itd.) może stać się bronią autonomiczną. Choćby dlatego chcemy jednoznacznego zakazu broni biorącej za cel człowieka”. 
Na zdjęciu najsłynniejszy w Polsce dron bojowy Bayraktar TB2. Po inwazji Rosji na Ukrainę w 2022 ruszyły w naszym kraju zbiórki na zakup bezzałogowego statku dla Sił Zbrojnych Ukrainy. Źródło: Ministerstwo Obrony Ukrainy.

Najwyższa pora zapytać. Zakazać, ale czego?

W naszej kampanii Stop Killer Robots stosujemy definicję zgodną ze stanowiskiem Międzynarodowego Komitetu Czerwonego Krzyża, która mówi, że broń autonomiczna bazuje na wykryciu celu i użyciu siły w oparciu na danych z czujników, a nie czynnościach człowieka. Po aktywacji nie wiemy, kiedy i wobec jakiego celu zostanie użyta. Gdy zaś wzywamy do międzynarodowego zakazu albo embargo, mówimy w szczególności o dwóch kategoriach: broni biorącej za cel ludzi (anti-personnel autonomous weapons) i broni, której użycie wyklucza sensowny nadzór ze strony człowieka.

Temat autonomicznej broni często jest redukowany do dronów. Ale to błąd. Musimy pamiętać, że niemal każdy rodzaj broni prędzej czy później (w połączeniu z rozpoznawaniem twarzy, zaprogramowanym profilem celu itd.) może stać się bronią autonomiczną. Choćby dlatego chcemy jednoznacznego zakazu broni biorącej za cel człowieka. Przykłady używania systemów rozpoznawania twarzy przez policję w USA i służby na całym świecie dały nam dość przykładów, żeby wiedzieć, że są to omylne narzędzia – szczególnie skore do pomyłek, gdy dane dotyczą osób o innym niż biały kolorze skóry lub przedstawicieli mniejszości.

A czy nie ma tu analogii do broni jądrowej? Państwa, które już mają broń autonomiczną, zgodzą się na traktat o nierozpowszechnianiu, żeby inni nie mogli po nią sięgnąć?

Nie. To, o czym mówimy, dużo bardziej przypomina konwencję o zakazie stosowania min przeciwpiechotnych czy użyciu amunicji kasetowej. Dzisiaj te kraje, które nie chcą zakazu autonomicznej broni, to te same, które chcą ją rozprowadzać. Zaś te, które chciałyby zakazu, nie mają jej i nie są zainteresowane jej pozyskaniem oraz rozpowszechnieniem na świecie. Podobnie było w przypadku zakazu stosowania amunicji kasetowej czy min przeciwpiechotnych w przeszłości. Co więcej, te negocjacje skończyły się sukcesem i większość państw przestrzega zapisów.

Dziś oczywiście słyszymy, że i tak używa się amunicji kasetowej – choćby w Ukrainie. Ale gdyby nie fakt, że kiedyś zobowiązano się do ich zakazu i że obowiązuje pewna norma, w ogóle by nas to nie oburzało. W tym sensie wymienione przeze mnie konwencje i negocjacje międzynarodowe służą dziś w przypadku AI za lepszą analogię niż dyskusje o proliferacji broni jądrowej.

Image
Pad do gry

„[P]roducenci się zabezpieczają. Zastrzegają, że zawsze jest gdzieś człowiek, który to kontroluje, i nigdy nie ma ryzyka, że coś się stanie bez ludzkiego nadzoru. Jednocześnie ci sami producenci, reklamując się, powołują się na coś zupełnie przeciwnego – mówią, że ich broń ma naprawdę autonomiczne oprogramowanie”. Zdjęcie: Alexey Savchenko | Unsplash

I możemy założyć, że te systemy są i tak dziś testowane – jakby to powiedzieć – na żywym (sic!) organizmie podczas konfliktów na całym świecie?

Tak. Ale to wcale nie jest oczywiste. Z jednej strony wiemy, że systemy, które da się według naszej definicji klasyfikować jako broń autonomiczną, są testowane na całym świecie. Z drugiej – nie możemy z całą pewnością powiedzieć, że w danym przypadku jednoznacznie mamy do czynienia z użyciem broni autonomicznej.

Zaraz, jak to?

Chodzi o to, że jej producenci się zabezpieczają. Zastrzegają, że zawsze jest gdzieś człowiek, który to kontroluje, i nigdy nie ma ryzyka, że coś się stanie bez ludzkiego nadzoru. Jednocześnie ci sami producenci, reklamując się, powołują się na coś zupełnie przeciwnego – mówią, że ich broń ma naprawdę autonomiczne oprogramowanie. To ciekawe, bo mamy do czynienia ze swego rodzaju…

Obrotową narracją, gdzie inna wersja funkcjonuje na potrzeby debaty publicznej, a inna w branży?

Tak. Dysponujemy dokładnymi cytatami szefów korporacji zbrojeniowych, którzy jasno dają do zrozumienia, że na razie człowiek jest zawsze obecny przy podejmowaniu decyzji. Ale jeśli klient będzie chciał inaczej; jeśli uzna, że woli zrezygnować z tej funkcji i że „wszystko jest OK z punktu widzenia konwencji genewskiej” (to cytat), to już jego decyzja. Firmy takie jak Helsing czy Anduril nie ukrywają, że testują swoje produkty w Ukrainie i że są niezwykle zadowolone z rezultatów. Mówią o tym publicznie.

Wiemy też, że izraelskie wojsko i tamtejszy sektor zbrojeniowy traktuje Gazę i Zachodni Brzeg Jordanu jako swego rodzaju laboratorium sztucznej inteligencji (rozpoznawanie twarzy, zautomatyzowane bramki graniczne i militarne AI). W przypadku Izraela dzięki pracom dziennikarzy wiemy o co najmniej dwóch systemach – o nazwach Lavender i Hasbora – używających AI do typowania celów. Dla firm zbrojeniowych to wyśmienita okazja: dostają masę danych, mogą testować swoje produkty, wdrażać nowe funkcjonalności. Dzięki temu zyskują dodatkowy argument: „Zobaczcie, to, co wam oferujemy, jest naprawdę efektywne, tanie i – co więcej – przetestowane”. Problem w tym, że dziennikarzom dziś bardzo trudno pracować w Gazie i weryfikować te wszystkie doniesienia oraz na bieżąco informować nas o prawdziwych skutkach stosowania tych narzędzi.

To prowadzi mnie do kolejnego pytania. Na ile dziś rozgraniczenie na sektor zbrojeniowy i cywilny, na AI wojskowe i powszechnego użytku, jest w ogóle zasadne? Sami piszecie w swoim newsletterze ostatnio niemal co tydzień o kolejnych firmach, które przekraczają tę granicę i wchodzą w biznes dostarczania rozwiązań dla służb i wojska.

Racja, choć to działa w obie strony. Niektóre firmy zaczynały już ponad dekadę temu od rozwiązań algorytmicznych, analizy big data itp. w celu zwalczania terroryzmu. Było jasne, że prędzej czy później wejdą w sektor czysto zbrojeniowy. Jednocześnie dostarczają swoje produkty (jak choćby Palantir) systemom brytyjskiej publicznej ochrony zdrowia. Gdzie przebiega granica, jeśli te same algorytmy czy platformy są rozwijane równolegle? W drugą stronę dzieje się podobnie. Firmy działające w sektorze, nazwijmy to, ogólnodostępnego AI mówią teraz, że wchodzą we współprace ze służbami, udostępniają swoje modele językowe na potrzeby bezpieczeństwa i będą ubiegać się o kontrakty wojskowe.

Image
Szyld "Need books not bombs"

„Wiemy też, że izraelskie wojsko i tamtejszy sektor zbrojeniowy traktuje Gazę i Zachodni Brzeg Jordanu jako swego rodzaju laboratorium sztucznej inteligencji […]  Dla firm zbrojeniowych to wyśmienita okazja: dostają masę danych, mogą testować swoje produkty, wdrażać nowe funkcjonalności. Dzięki temu zyskują dodatkowy argument: […] to, co wam oferujemy, jest naprawdę efektywne, tanie i – co więcej – przetestowane”. Zdjęcie: rao qingwei | Pexels.

Mamy powody, żeby się martwić?

Po pierwsze, autonomiczna broń ma potencjał, żeby zmienić oblicze wojny jako takiej. Może doprowadzić do rozprzestrzenienia się konfliktu asymetrycznego i – co już widzimy – nowego wyścigu zbrojeń. Przenosi w jeszcze większym stopniu śmiertelność konfliktu na cywili. Działa w podobny sposób jak miny – to ofiara czy cel może je uruchomić, a nie działanie człowieka. Możemy zostać celem, nie wiedząc o tym ani nawet nie zdając sobie sprawy, że w ogóle toczy się konflikt: wystarczy, że nasze dane będą pasować do wzoru. Co więcej, zazwyczaj jest tak, że technologie wykorzystywane na wojnie „wracają do domu” i znajdują zastosowanie w polityce wewnętrznej. Tak stało się z wieloma technologiami nadzoru chociażby. To wszystko wiemy. Ale spójrzmy na zjawisko cyfrowego odczłowieczania…

„Cyfrowego odczłowieczania”?

Tak. Ten proces opiera się na tym, że jesteśmy – czy nam się to podoba, czy nie – redukowani do ciągu liczb, a następnie decyzje, które bezpośrednio dotyczą naszego życia, są podejmowane w oparciu o te liczby. Ten proces prowadzi do tego, że coraz bardziej realna staje się perspektywa podejmowania w ten sposób decyzji o życiu i śmierci. Myślę, że nadszedł moment, w którym warto głośno zapytać – jak robi to m.in. Międzynarodowy Komitet Czerwonego Krzyża – czy naprawdę jesteśmy na to gotowi i czy ktokolwiek świadomie się na to godzi.

* Dr Catherine Connolly zajmuje się monitorowaniem prawa międzynarodowego i debaty politycznej nad bronią autonomiczną w zespole Automated Decision Research

Newsletter

Otrzymuj informacje o działalności Fundacji

Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje danejakie jeszcze prawa ci przysługują, w Polityce prywatności.