AI Act w działaniu 2. Siri, Alexa i inni smart asystenci

Poradnik
10.05.2024
9 min. czytania
Tekst
Image
Grafika przedstawiająca osobę z smart ayastetntem domowym

Wirtualny asystent linii lotniczej podał klientowi błędne informacje. Firma próbowała wykręcić się od odpowiedzialności, ale sąd uznał, że powinna zrealizować obietnicę złożoną przez bota funkcjonującego na jej stronie internetowej. Co mówi AI Act o odpowiedzialności za słowa i działania botów?

Zanim akt o sztucznej inteligencji zacznie w pełni obowiązywać, minie wiele miesięcy. Dlatego już teraz przyglądamy się, co nowe prawo może zmienić w relacji między konsumentem a narzędziami wykorzystującymi uczenie maszynowe. W tym odcinku: chatboty i smart asystenci.

Czy Alexa, Max i Siri podejmą za ciebie decyzję

Jeszcze kilka lat temu rewolucją w obsłudze klientów były chatboty oparte na założonych z góry scenariuszach rozmów. Dzisiaj wirtualni asystenci to nie tylko coraz bardziej zaawansowane czaty. To także asystenci w rodzaju Alexy czy Siri, które mogą obsługiwać konkretne funkcje smartfona, albo programy automatyzujące pracę w stylu Microsoft Copilot.

Niektóre takie narzędzia, jak bot Max firmy Orange, otwarcie działają w interesie jednej firmy (np. rozwiązują konkretne sprawy). Inne, jak Microsoft Copilot, są reklamowane jako „towarzysze internetowych peregrynacji”. Zrobią za ciebie nużący risercz i jednoznacznie odpowiedzą na pytanie. To kolejne wcielenie internetowej wyszukiwarki, ze wszystkimi jej zaletami i wadami, tylko spotęgowane. Narzędzia, które selekcjonują informacje, mogą przecież kształtować decyzje konsumenckie. A czasami podpowiadać produkty droższe, tańsze albo po prostu należące do wspierającej narzędzie firmy.

Image
Chatbot max jako robot

Oto Bot Max. Firma Orange postawiła na najbardziej stereotypowe przedstawienie sztucznej inteligencji – zantropomorfizowanego robota.

Marzenia o inteligentnych asystentach nie są obce administracji, również polskiej. W niedawnym wywiadzie dla Dziennika Gazety Prawnej dyrektor Centralnego Ośrodka Informatyki COI Radosław Maćkiewicz zapowiedział, że taki asystent ma zacząć działać na stronach gov.pl.

„Zaczęliśmy prace nad funkcjonalnością chatbota wykorzystującego sztuczną inteligencję. Najpierw chcemy uruchomić go na stronie gov.pl, żeby pomógł nam załatwiać sprawy urzędowe. Dzięki niemu, zamiast przeglądać portal, będzie można zadać pytanie w języku naturalnym i uzyskać odpowiedź (…). Wykorzystujemy model od OpenAI, choć zostanie on ograniczony do informacji, które są na gov.pl, żeby nie odpowiadał w dziwny sposób”.

Radosław Maćkiewicz [źródło]

Na marginesie: nie podzielamy entuzjazmu, bo w kolejce czekają ważniejsze usługi publiczne (oraz ich audyty bezpieczeństwa…), ale to osobny temat.

Chatboty: co zmieni AI Act

„Dzień dobry, jestem Max, twój wirtualny asystent” – takie powitania to już norma na wielu infoliniach. AI Act stawia kropkę nad i. Według art. 50 ust. 1 dostawcy systemów AI „wchodzących w bezpośrednią interakcję z osobą fizyczną” mają obowiązek poinformowania tej osoby o tym, że ma do czynienia z systemem AI (a nie człowiekiem, np. pracownikiem firmy).

Zostaniemy też poinformowani, że rozmawiamy z chatbotem, jeśli ten będzie „służył ogółowi społeczeństwa na potrzeby składania zawiadomień o popełnieniu przestępstwa”.

Kiedy nie dowiemy się, że rozmawiamy z botem

Po pierwsze, jeśli jest to „oczywiste” – z punktu widzenia „osoby fizycznej, która jest dobrze poinformowana, spostrzegawcza i uważna, biorąc pod uwagę okoliczności i kontekst użycia”. Taką „oczywistością” będzie zapewne bot w czasie jego prezentacji czy asystent wbudowany w oprogramowanie, np. Co-pilot.

Inne przykłady to asystenci wbudowani w urządzenia, jak Siri, Alexa czy Google Assistant (gdzie interakcja z AI jest podstawową funkcją urządzenia i jest powszechnie znana użytkownikom), albo chatboty na stronach internetowych (gdy użytkownik wchodzi na stronę obsługi klienta i od razu widzi interfejs chatbota: wówczas zazwyczaj jest jasne, że rozmowa odbywa się z programem komputerowym, a nie z człowiekiem).

Video file

Całej rozmowy z prof. Marią Ganzhą przesłuchasz tutaj.

Po drugie, obowiązek informowania o tym, że mamy do czynienia z chatbotem, nie będzie dotyczył systemów AI używanych do wykrywania czy prowadzenia postępowań przygotowawczych w związku z przestępstwami, a także przeciwdziałania im. W praktyce może to być np. bot prowokujący osoby uwodzące dzieci w Internecie, „wypytujący” na portalach społecznościowych o sprzedaż narkotyków albo wyspecjalizowany w konwersacji z oszustami ubezpieczeniowymi.

Bot wysokiego ryzyka

Zwykłym chatbotom AI Act nie poświęca zbyt wiele miejsca. Co innego, gdyby takie narzędzie zostało zakwalifikowane jako system AI wysokiego ryzyka. Co to oznacza? W praktyce bot-asystent musiałby być wykorzystywany w jednym z obszarów, którym AI Act przypisuje wysokie ryzyko, np. do celów oceny zdolności kredytowej albo monitorowania zachowania uczniów (chyba że nie stwarzałby znaczącego ryzyka szkody dla zdrowia, bezpieczeństwa lub praw podstawowych osób fizycznych – lub inaczej: w istotny sposób nie wpływał na rozstrzygnięcia dotyczące ludzi).

Te wyśrubowane kryteria mógłby spełnić chatbot na stronach gov.pl, jeśli jego zadaniem byłoby nie tylko kierowanie zagubionych interesantów do właściwego okienka, ale również wstępna ocena, czy dana osoba kwalifikuje się do uzyskania konkretnego świadczenia (ulgi podatkowej, zasiłku). Albo chatbot wpięty w oficjalną aplikację diagnostyczną (takie usługi pojawiały się w Europie w czasie pandemii koronawirusa), gdyby jednym z jego zadań było kierowanie ludzi na kwarantannę.

Dodatkowe wymagania obejmą dostawców dużych modeli językowych (LLM). Firma rozwijająca taki model będzie musiała:

  • ujawnić, na jakich danych go wytrenowała;
  • wdrożyć politykę ochrony praw własności intelektualnej;
  • opracować (i aktualizować) dokumentację techniczną, w której opisze m.in. proces uczenia i testowania modelu oraz wyniki ewaluacji.

Czy to znaczy, że niedługo Max – zamiast jednym zdaniem – będzie się nam przedstawiał przez godzinę? Nie. Duże modele językowe to skomplikowane programy. Zazwyczaj powstają w dużych ośrodkach badawczych i to na nich spoczywać będzie obowiązek wyjaśnienia, jak są rozwijane.

Bot uczący się zgodnie z prawem?

W kwietniu 2024 r. austriacka organizacja NOYB złożyła skargę do swojego organu ochrony danych przeciwko Open AI – że ChatGPT zmyśla. Konkretnie narzędzie zapytane o datę urodzenia osoby, w której imieniu poskarżył się NOYB, podał błędne dane, a OpenAI odmówiła skorygowania tej informacji. AI Act nie odnosi się do problemu generowania nieprawdziwych danych i naruszania dóbr osobistych, więc NOYB oparł swoją skargę na „starych” przepisach, czyli RODO. NOYB argumentuje w niej, że dostawca ChatGPT nie realizuje praw, które mamy na gruncie RODO (konkretnie: prawa skorygowania błędnych danych). Z zainteresowaniem śledzimy rozwój sytuacji, a tymczasem odsyłamy do analizy, w której przykładamy reguły ochrony danych osobowych do generatorów treści.

AI Act wymaga od dostawców GPAI przestrzegania praw autorskich. Nie określa jednak sposobu, w jaki mają to robić. W praktyce wygląda to tak, że dostawcy systemów opartych na dużych modelach językowych (LLM) tworzą filtry ograniczające ryzyko naruszenia praw autorskich (robi to np. Microsoft w swoim Copilocie). W ten sam sposób są blokowane działania użytkowników, którzy celowo próbują wygenerować treści z naruszeniem prawa autorskiego (np. wykorzystując materiały, do których nie przysługują im prawa). Ale każdy filtr daje się obejść lub oszukać.

Kto odpowie za błędy asystentów

Przywołana na samym początku tekstu sprawa pasażera Air Canada została jednoznacznie rozstrzygnięta przez kanadyjski sąd: firma ponosi odpowiedzialność za wprowadzenie klienta w błąd, bez względu na to, czy informacje widniały na stronie, czy zostały podane przez wbudowanego w nią chatbota. Linia lotnicza może dochodzić swoich roszczeń od dostawcy bota – ale to nie jest problem pasażera.

Z roli zwykłego asystenta wyszedł też Ojciec Justin, chatbot amerykańskiej organizacji Catholic Answers. W pewnym momencie zaczął utrzymywać w rozmowach, że jest prawdziwym księdzem, i oferował spowiedź. Ludzie jednak szybko zorientowali się, że coś jest nie tak (bot proponował też chrzest napojem izotonicznym). „Ojciec” został zdegradowany do świeckiego teologa, a jego awatar stracił koloratkę [źródła: 1, 2].

Image
Ojciec Justin

Ojciec Justin jeszcze w roli duchownego. (photo: Screenshot / Catholic Answers)

Na razie nie słychać nic o sprawach sądowych przeciwko Catholic Answers, ale jeśli organizacja korzystała z tego samego produktu co Air Canada, to musicie przyznać, że miło byłoby wiedzieć, kto go dostarcza…

Wróćmy jednak do Unii Europejskiej. Co może zrobić konsument pokrzywdzony przez działanie systemu wykorzystującego AI?

AI Act nie reguluje odpowiedzialności za szkody wyrządzone przez takie systemy. Być może zmieni to nowa dyrektywa – o odpowiedzialności AI (AI Liability Act) – oraz nowelizacja dyrektywy o odpowiedzialności za produkty. Pierwsza z inicjatyw jest jednak na wczesnym etapie, a tekst drugiej został przyjęty przez Parlament Europejski 12 marca. Jak na razie pozostaje odpowiedzialność na zasadach ogólnych. A więc konsument, który trafi na źle działający system AI, może zrobić to samo co konsument, któremu szwankuje lodówka: złożyć reklamację, skargę do rzecznika konsumentów lub… pójść po odszkodowanie do sądu.

Co zmieni AI Act: być może będziemy lepiej informowani, kiedy mamy do czynienia z systemami wykorzystującymi AI. Być może będziemy chronieni przed najbardziej szkodliwym wykorzystaniem tej technologii. To mało jak na pięć lat pracy nad „pierwszą taką regulacją”, ale przynajmniej jest to szansa, żeby bezkrytyczną dyskusję nad zaletami AI skontrować odrobiną realizmu.

Dziękujemy dr Gabrieli Bar (Gabriela Bar Law & AI) za konsultację merytoryczną tekstu.

Co to jest sztuczna inteligencja? Gdzie warto ją wykorzystywać, a jakie ma ograniczenia? Przeczytaj przewodnik Fundacji Panoptykon: Sztuczna inteligencja non-fiction.

Gabriela Bar, Katarzyna Szymielewicz
Współpraca

Newsletter

Otrzymuj informacje o działalności Fundacji

Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje danejakie jeszcze prawa ci przysługują, w Polityce prywatności.