Czy sztuczna inteligencja wybawi nas od koronawirusa? Z jakimi zadaniami radzi sobie dobrze, a do czego nie powinno się jej stosować? Czy naprawdę nie da się zrozumieć, jak działa? Jakie decyzje muszą podjąć projektanci algorytmó? Zapraszamy na rozmowę z Agatą Foryciarz, doktorantką na Uniwersytecie Stanforda, która bada algorytmy uczenia maszynowego w kontekście zastosowań biomedycznych. Jest również współautorką naszej najnowszej internetowej publikacji pt. Sztuczna inteligencja non-fiction, w której mierzymy się z popularnymi mitami na temat AI. Zapraszamy do słuchania i czytania!
Najnowszy odcinek podcastu znajdziesz na naszej stronie, na YouTube'ie, na Vimeo lub na portalu TOK FM (tam znajdziesz też automatyczną transkrypcję). Podcast możesz również zasubskrybować za pośrednictwem kanału RSS Panoptykon 4.0.
Streszczenie rozmowy:
„Skomplikowane metody statystyczne są jak kalkulator lub komputer. Każde z tych narzędzi przyspieszy pracę naukowców nad wynalezieniem lekarstwa czy szczepionki, ale nie wymyśli za nas, jak wygrać z koronawirusem” – Agata Foryciarz, doktorantka na Uniwersytecie Stanforda, która bada algorytmy uczenia maszynowego w kontekście zastosowań biomedycznych, podważa hurraoptymistyczny ton doniesień medialnych już na wstępie rozmowy. Po czym z ironią opowiada jak amerykańscy naukowcy zajmujący się uczeniem maszynowym z pewnością graniczącą z pewnością proponowali rozwiązania, które miały przyczynić się do zwalczenia pandemii. „Z dużo większą niż środowisko epidemiologów, które przecież najlepiej rozumie, jak rozprzestrzenia się wirus” – zauważa.
Według naszej rozmówczyni sztuczna inteligencja może być z powodzeniem wykorzystywana do rozpoznawania obrazu, np. wspierając diagnostykę pacjentów (klasy algorytmów wykorzystywanych do tych zadań rozwijane są z przerwami już od lat 60. XX w.), natomiast w żadnym wypadku do przewidywania ludzkich zachowań. „Społeczeństwo jest zbyt dynamicznym systemem, więc dane, na których mielibyśmy trenować algorytmy natychmiast stają się nieaktualne. Algorytm to maszyna do wykrywania wzorców, tworzenia stereotypów. Jeżeli wykorzystamy ją w sądownictwie, by określić prawdopodobieństwo recydywy konkretnego osadzonego i na tej podstawie zdecydować o jego wcześniejszym zwolnieniu, czy w podejmowaniu decyzji o tym, jak rozdysponować środki pomocy społecznej, algorytm zrobi dokładnie to, czego za wszelką cenę staramy się uniknąć. Będziemy sortować ludzi, odcinać ich od świadczeń i karać” – tłumaczy dalej.
A jednak w Stanach Zjednoczonych takie algorytmy istnieją i są używane. Jak to możliwe? Według Agaty Foryciarz nadal pokutuje mit czarnej skrzynki, czyli podtrzymywanej przez państwo i firmy narracji, że te systemy są tak skomplikowane, że próba zrozumienia, jak działają, musi zakończyć się niepowodzeniem. Tymczasem wcale nie trzeba śledzić kolejnych – faktycznie skomplikowanych – obliczeń systemu, żeby zdecydować, czy użycie go przyniesie więcej szkody, czy pożytku. Wystarczy opisać, jakie zadanie system ma rozwiązywać; jak jest zdefiniowany sukces; jakich danych użyto do jego wytrenowania; jakie błędy wyszły w testowach i które z nich twórcy uznali za akceptowalne; oraz jak algorytmy radziły sobie podczas testów już w docelowym kontekście (np. słynny Watson firmy IBM sugerował leki rozcieńczające krew pacjentom z nowotworem, którzy już mieli problem z jej krzepliwością).
Niestety według naszej rozmówczyni, zazwyczaj rozmowa o tym, czy użycie konkretnego algorytmu powinno być dopuszczalne, zaczyna się zazwyczaj dopiero wtedy, kiedy „mleko już się rozlało”. Tak było w przypadku wspomnianego Watsona, tak też jest teraz w przypadku dyskryminujących osoby czarnoskóre systemów rozpoznawania twarzy autorstwa IBM i Amazona. W reakcji na dyskusję o systemowym rasizmie wywołanej przez zabójstwo George’a Floyda firmy ogłosiły zawieszenie prac nad ich rozwijaniem. Ale na ile jest to kolejny PR-owy ruch ze strony? Ile czasu będzie musiało upłynąć zanim założymy przysłowiowe pasy bezpieczeństwa tworzonym technologiom? W Europie ta dyskusja już się toczy. A Panoptykon bacznie jej się przygląda.
Dodaj komentarz