Nauczka Ubera. Za korzystaniem z AI musi iść odpowiedzialność

Artykuł
09.11.2020
7 min. czytania
Tekst
Image
Zdjęcie kuriera na rowerze

Człowiek nie sprawdzi się w roli nadzorcy sztucznej inteligencji, jeśli ma przejmować stery wyłącznie w sytuacjach awaryjnych.

8 marca 2018 r., późnym wieczorem, na ruchliwej czteropasmowej drodze w stanie Arizona zginęła piesza. Według ustaleń śledczych Elaine Herzberg poruszała się obładowanym zakupami rowerem poza przejściem dla pieszych. Udało jej się przejść przez dwa pasy drogi, ale na trzecim doszło do zderzenia z nadjeżdżającym samochodem. Na drogach codziennie giną ludzie, ale ten wypadek i jego ofiara przeszli do historii – a konkretnie zapisali się na kartach Wikipedii. Wszystko przez to, że Elaine Herzberg trafiła pod koła autonomicznego samochodu, który akurat tego dnia, na tej drodze testował Uber.

Śmierć w wyniku tragicznego wypadku

Mimo że przechodziła przez ruchliwą drogę niezgodnie z przepisami, Elaine Herzberg nie musiała zginąć. Śledztwo wykazało, że autonomiczny samochód w momencie jej wykrycia jechał z prędkością 69 km/godz. Na wyhamowanie miał ponad 100 m i całe 6 s. Przy błyskawicznej reakcji ten gwałtowny manewr mógł się zakończyć bezpiecznie. Ale samochód nie zareagował. Program odpowiedzialny za analizę otoczenia uznał nagłe pojawienie się pieszej z rowerem za fałszywy alarm. Kierowca nie zareagował, bo akurat w tym momencie nie patrzył na drogę. Na domiar złego Uber wymontował z testowanego samochodu system awaryjnego hamowania Volvo, który powinien zadziałać automatycznie po wykryciu przeszkody. Pozbawiona innych instrukcji maszyna pojechała dalej, aż do tragicznego zderzenia.

Miesiąc temu w tej sprawie wreszcie pojawił się akt oskarżenia. Nie przeciwko firmie Uber, która miała pozwolenie na testowanie autonomicznych pojazdów w Arizonie i która podjęła decyzję o wymontowaniu z Volvo systemu awaryjnego hamowania. Nie przeciwko dostawcom albo projektantom oprogramowania, które w kluczowym momencie zawiodło. Ale przeciwko Rafaeli Vasquez, która siedziała w samochodzie i nadzorowała jazdę. Według ustaleń śledczych 34 proc. czasu w tej podróży Rafaela spędziła, patrząc w swojego smartfona, na którym oglądała odcinek „The Voice”.

Jak kontrolować AI, skoro człowiek nie potrafi

Oburzające? Niewybaczalne? A może po prostu ludzkie? Rafaela Vasquez rzeczywiście nie dopełniła swoich obowiązków. Ale czy inny człowiek na jej miejscu potrafiłby zachować pełną koncentrację na drodze, przez cały czas? Jak pokazuje ta historia, wystarczy feralne 6 s nieuwagi, żeby doszło do tragicznego zdarzenia. Hannah Fry, brytyjska matematyczka i popularyzatorka wiedzy o sztucznej inteligencji, w książce „Hello World. Jak być człowiekiem w epoce maszyn” poświęca cały rozdział autonomicznym pojazdom, żeby w konkluzji przestrzec nas przed właśnie takim podziałem odpowiedzialności, jaki w swoim eksperymencie przyjął Uber.

Zdaniem Fry człowiek nie sprawdzi się w roli nadzorcy AI, jeśli ma przejmować stery wyłącznie w sytuacjach awaryjnych. To naturalne, że czasem odwróci głowę – jeśli nie rozproszy go ekran smartfona, zrobi to widok za oknem. To naturalne, że po dłuższym czasie monotonnej jazdy, która nie wymaga żadnej aktywności, ogarnie do znużenie. I nawet jeśli zdąży zauważyć przeszkodę, będzie potrzebował więcej niż kilka sekund na skuteczną reakcję. Dlatego Hannah Fry krytykuje sam pomysł na autonomiczne samochody jeżdżące w normalnym – a więc zgoła nieprzewidywalnym – ruchu. Jej zdaniem ten eksperyment nie może się skończyć dobrze.

Czy są takie sfery, w których człowiek nadzorujący sztuczną inteligencję sprawdzi się lepiej niż za kierownicą? Czy jesteśmy przygotowani do współpracy z algorytmami, które sugerują sposób leczenia pacjentów onkologicznych albo szacują ryzyko popełnienia przestępstwa i na tej podstawie sugerują, gdzie wysłać policyjny patrol i kogo odwiedzić w domu? Efekty takiej współpracy człowieka i sztucznej inteligencji mogliśmy już obserwować w Stanach Zjednoczonych. Lekarze onkolodzy w zestawieniu z szeregowymi policjantami wypadli zdecydowanie lepiej. Testy słynnego Watsona firmy IBM, który miał wspierać m.in. diagnostykę raka, nie wypadły pomyślnie: Watson doskonale sobie radził z analizą danych (np. skanów ludzkiego ciała), ale nie potrafił dobrać terapii do potrzeb konkretnego pacjenta. Na szczęście lekarze nie podążali ślepo za podpowiedziami algorytmu i robili swoje. Tylko dlatego ten eksperyment nie pociągnął za sobą ofiar w ludziach.

Zdecydowanie gorzej współpraca człowieka i sztucznej inteligencji wypada w prewencji kryminalnej. Testowane przez amerykańską i brytyjską policję programy do szacowania ryzyka przestępczości nadal są „karmione” danymi, które odzwierciedlają istniejące w tych społeczeństwach uprzedzenia rasowe lub klasowe. W efekcie policjantom zdarza się aresztować niewinnego człowieka głównie dlatego, że jest czarny, albo nachodzić w domach dzieciaki, które wcześniej dokonały kradzieży, głównie dlatego, że mieszkają w „złej” dzielnicy. Powiecie: nic nowego pod słońcem. Niestety tak. Ale przecież nie po to zatrudniamy sztuczną inteligencję do podejmowania decyzji, żeby powielała nasze wcześniejsze błędy.

Nadzorca sztucznej inteligencji potrzebny od zaraz

Obietnica była inna: dzięki algorytmom wytrenowanym na „obiektywnych” danych miało być racjonalnie, naukowo i bez uprzedzeń. W praktyce do tej obietnicy nie dorastają jeszcze ani algorytmy – z braku lepszych danych trenowane na takich, które odzwierciedlają nasze schematy działania i społeczne stereotypy – ani ludzie zatrudniani do ich nadzorowania. O ograniczeniach samych algorytmów wiemy coraz więcej i powoli uczymy się je korygować. A co wiemy o ludziach? Czy istnieje przepis na krytycznie myślącego, niezależnego w swoich ocenach ludzkiego nadzorcę sztucznej inteligencji?

Odpowiedzi na to pytanie poszukiwał Michał Klichowski, naukowiec i pedagog z poznańskiego UAM, który od lat bada wpływ technologii na nasze procesy poznawcze. Jeden z jego ostatnich eksperymentów pokazuje, że jesteśmy skłonni traktować sztuczną inteligencję jak autorytet i podążać za jej wskazówkami – wyłączając swoje krytyczne myślenie – nawet wówczas, gdy te wskazówki wcale nie wydają się nam sensowne. W eksperymencie Klichowskiego badani mieli wskazać, która – spośród przedstawionych im fikcyjnych postaci – jest terrorystą. Celowo zostali postawieni przed zadaniem nierozwiązywalnym: nie mieli wystarczających danych, żeby odpowiedzieć na pytanie.

Tych danych nie miał również bot, który w badaniu udawał sztuczną inteligencję. Na domiar złego, podpowiedzi, jakie w trakcie eksperymentu sugerował badanym udający inteligentnego robot, były zupełnie nielogiczne. Sami badani przyznawali to później w rozmowach z Michałem Klichowskim, a jednak – w sytuacji zagubienia i pod wpływem presji czasu – tym podpowiedziom ulegali. Zgodnie twierdzili też, że gdyby kolejny raz przyszło im podjąć decyzję bez wystarczających danych, posłuchaliby podpowiedzi sztucznej inteligencji.

Warto wyciągnąć wnioski z tego eksperymentu, zanim zaryzykujemy ludzkie życie na drodze, po której jeżdżą autonomiczne samochody, albo zatrudnimy algorytm do wspierania sędziów, policjantów czy urzędników w obiektywnie trudnych decyzjach, jakie muszą podejmować. To, co jest trudne dla nas, niekoniecznie będzie łatwiejsze dla sztucznej inteligencji. A żeby móc korygować jej błędy i krytycznie oceniać podpowiedzi, sami musimy się jeszcze wiele nauczyć.

Polecana lektura: „Sztuczna inteligencja non-fiction. Przewodnik Fundacji Panoptykon

Tekst ukazał się 25.10.2020 r. na stronie Tygodnika POLITYKA

Newsletter

Otrzymuj informacje o działalności Fundacji

Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje danejakie jeszcze prawa ci przysługują, w Polityce prywatności.