Duch w maszynie. Norweska Rada Konsumentów o zagrożeniach ze strony generatywnej AI

Artykuł
11.07.2023
5 min. czytania
Tekst
Image
Grafika z kodem na komputerze

Koncentracja władzy w rękach dużych firm technologicznych, nieprzejrzyste systemy, brak odpowiedzialności. A na drugą nóżkę: uprzedzenia, dyskryminacja, naruszenia prywatności, podatność na oszustwa i negatywny wpływ na środowisko, a może także na rynek pracy. Norweska Forbrukerrådet (Rada Konsumentów) ostrzega przed długą listą zagrożeń związanych z szerokim wdrażaniem generatywnej sztucznej inteligencji w biznesie i administracji publicznej.

Selektywna lektura w panoptykonowych okularach każe zwrócić uwagę przede wszystkim na wątki związane z prywatnością, wolnością słowa, a także odpowiedzialnością za działanie takich systemów.

Jak szerokie wykorzystanie generatywnej AI zagraża prywatności?

„Generatory obrazów są zazwyczaj trenowane na ogromnych zbiorach danych, które zawierają zdjęcia prawdziwych ludzi. Obrazy te są zaciągane np. z mediów społecznościowych i wyszukiwarek, bez odpowiedniej podstawy prawnej i bez wiedzy osób, które te zdjęcia przedstawiają. Podobnie generatory tekstu bazują na zbiorach zawierających dane osobowe czy treści konwersacji między osobami fizycznymi (…). Ładując swoje zdjęcie np. na portal społecznościowy, osoby te nie mogły przewidzieć, że któregoś dnia ich wizerunek zostanie wykorzystany do trenowania AI. Nie zostały poinformowane, że to się wydarzy, nie wyraziły na to zgody, ale prawdopodobnie nawet nie będą świadome, że ich prywatność została naruszona” – czytamy w opublikowanym przez norweską Radę Konsumentów raporcie >Ghost in the machine. Addressing the consumer harms of Generative AI.

Tymczasem kilka dni temu Google wykazał się nie lada tupetem, informując, że po zmianach w regulaminie będzie używał wszystkich informacji, które wytwarzamy lub które są podpięte pod jego usługi. Cel? Karmienie baz danych do trenowania modeli AI, oczywiście. I dogonienie Open AI – nawet jeśli oznacza to pozyskiwanie naszych danych osobowych w sposób, który może naruszać obowiązujące prawo. Modyfikacja zasad jest istotna, bo wcześniej nasze dane były używane przez Google’a „tylko” do uczenia modeli językowych, czyli przede wszystkim do programów umożliwiających automatyczne tłumaczenie tekstu i mowy.

Czyli prawo – prawem, RODO – RODO, a ludzie – biomasą, na której monopoliści trenują swoje inteligentne modele.

Generatywna AI zakreśli granice wolności słowa?

Przykre konsekwencje mogą nas spotkać też np. w mediach społecznościowych, komunikatorach czy na forach internetowych. Bo przecież narzędzia typu ChatGPT służą nie tylko do generowania treści, ale też do analizowania, redagowania czy pogłębionej analizy danych (np. wydźwięku emocjonalnego). Norweska Rada przewiduje, że wraz z wejściem w życie aktu o usługach cyfrowych, który nakłada na firmy nowe obowiązki związane z moderacją treści, przedsiębiorstwa mogą pokusić się o szersze wykorzystanie do tego celu narzędzi opartych na generatywnej AI. Już teraz największe platformy korzystają z częściowo automatycznych systemów, które radzą sobie – najoględniej mówiąc – różnie. Firmy tworzące modele generatywnej AI już wywołały nową falę dyskusji o granicach wolności słowa w Internecie.

„Konieczność moderacji treści daje władzę decydowania o tym, który materiał jest szkodliwy, a który dozwolony – w zakresie, w którym nie zostało to jasno zdefiniowane w przepisach. Np. firma OpenAI trafiła w ogień krytyki, kiedy okazało się, że jej ChatGPT ogranicza pewne punkty widzenia, odmawiając generowania treści na konkretne tematy polityczne. Jeśli prywatne firmy będą miały prawo decydować, jakie treści są dopuszczalne, a jakie nie są, może to prowadzić nadużyć i lawiny negatywnych konsekwencji” – piszą autorzy i autorki raportu.

Raport i fakty kontra agresywny lobbing firm technologicznych

Raport ukazuje się w momencie, gdy europejskie rządy zasiadają do negocjacji trójstronnych z Parlamentem i Komisją Europejską w sprawie ostatecznej treści regulacji AI – aktu o sztucznej inteligencji. A firmy technologiczne podejmują agresywne działania lobbingowe, żeby wywalczyć jak najłagodniejsze dla siebie regulacje modeli generatywnej AI.

Minister Cyfryzacji Janusz Cieszyński wyraził niedawno obawę, że „przyjęcie najdalej idących regulacji dotyczących sztucznej inteligencji, o których mówi obecnie Parlament Europejski, może spowodować zabicie AI w UE ”. Nie jesteśmy przeciwko rozwojowi sztucznej inteligencji, ale zgadzamy się z rekomendacjami norweskiej Rady, które pozwolą ograniczyć jego negatywne konsekwencje dla ludzi. Między innymi:

  • żeby chronić prawa ludzi, krajowe organy i instytucje egzekwujące przepisy aktu o AI powinny mieć odpowiednie kompetencje i finansowanie;
  • kraje powinny kierować się zasadą ostrożności w stosunku do wykorzystania np. dużych modeli językowych w sektorze publicznym;
  • niektóre zastosowania generatywnej AI powinny być zakazane, pozostałe – oceniane pod kątem ryzyka oraz audytowane;
  • firmy, które dostarczają i wprowadzają systemy AI, powinny mieć obowiązek np. przeprowadzania oceny ryzyka dla praw podstawowych, wprowadzania środków minimalizujących ryzyko, wreszcie – powinny ponosić odpowiedzialność za szkody.

Polecamy:

Forbrukerrådet: Ghost in the machine. Addressing the consumer harms of Generative AI


Działania organizacji w latach 2022–2024 dofinansowane z Funduszy Norweskich w ramach programu Aktywni Obywatele – Fundusz Krajowy.

logo programu Aktywni Obywatele - Fundusz Krajowy

Filip Konopczyński
Współpraca

Newsletter

Otrzymuj informacje o działalności Fundacji

Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje danejakie jeszcze prawa ci przysługują, w Polityce prywatności.