Artykuł 11.07.2023 5 min. czytania Tekst Image Koncentracja władzy w rękach dużych firm technologicznych, nieprzejrzyste systemy, brak odpowiedzialności. A na drugą nóżkę: uprzedzenia, dyskryminacja, naruszenia prywatności, podatność na oszustwa i negatywny wpływ na środowisko, a może także na rynek pracy. Norweska Forbrukerrådet (Rada Konsumentów) ostrzega przed długą listą zagrożeń związanych z szerokim wdrażaniem generatywnej sztucznej inteligencji w biznesie i administracji publicznej. Selektywna lektura w panoptykonowych okularach każe zwrócić uwagę przede wszystkim na wątki związane z prywatnością, wolnością słowa, a także odpowiedzialnością za działanie takich systemów. Jak szerokie wykorzystanie generatywnej AI zagraża prywatności? „Generatory obrazów są zazwyczaj trenowane na ogromnych zbiorach danych, które zawierają zdjęcia prawdziwych ludzi. Obrazy te są zaciągane np. z mediów społecznościowych i wyszukiwarek, bez odpowiedniej podstawy prawnej i bez wiedzy osób, które te zdjęcia przedstawiają. Podobnie generatory tekstu bazują na zbiorach zawierających dane osobowe czy treści konwersacji między osobami fizycznymi (…). Ładując swoje zdjęcie np. na portal społecznościowy, osoby te nie mogły przewidzieć, że któregoś dnia ich wizerunek zostanie wykorzystany do trenowania AI. Nie zostały poinformowane, że to się wydarzy, nie wyraziły na to zgody, ale prawdopodobnie nawet nie będą świadome, że ich prywatność została naruszona” – czytamy w opublikowanym przez norweską Radę Konsumentów raporcie >Ghost in the machine. Addressing the consumer harms of Generative AI. Tymczasem kilka dni temu Google wykazał się nie lada tupetem, informując, że po zmianach w regulaminie będzie używał wszystkich informacji, które wytwarzamy lub które są podpięte pod jego usługi. Cel? Karmienie baz danych do trenowania modeli AI, oczywiście. I dogonienie Open AI – nawet jeśli oznacza to pozyskiwanie naszych danych osobowych w sposób, który może naruszać obowiązujące prawo. Modyfikacja zasad jest istotna, bo wcześniej nasze dane były używane przez Google’a „tylko” do uczenia modeli językowych, czyli przede wszystkim do programów umożliwiających automatyczne tłumaczenie tekstu i mowy. Czyli prawo – prawem, RODO – RODO, a ludzie – biomasą, na której monopoliści trenują swoje inteligentne modele. Generatywna AI zakreśli granice wolności słowa? Przykre konsekwencje mogą nas spotkać też np. w mediach społecznościowych, komunikatorach czy na forach internetowych. Bo przecież narzędzia typu ChatGPT służą nie tylko do generowania treści, ale też do analizowania, redagowania czy pogłębionej analizy danych (np. wydźwięku emocjonalnego). Norweska Rada przewiduje, że wraz z wejściem w życie aktu o usługach cyfrowych, który nakłada na firmy nowe obowiązki związane z moderacją treści, przedsiębiorstwa mogą pokusić się o szersze wykorzystanie do tego celu narzędzi opartych na generatywnej AI. Już teraz największe platformy korzystają z częściowo automatycznych systemów, które radzą sobie – najoględniej mówiąc – różnie. Firmy tworzące modele generatywnej AI już wywołały nową falę dyskusji o granicach wolności słowa w Internecie. „Konieczność moderacji treści daje władzę decydowania o tym, który materiał jest szkodliwy, a który dozwolony – w zakresie, w którym nie zostało to jasno zdefiniowane w przepisach. Np. firma OpenAI trafiła w ogień krytyki, kiedy okazało się, że jej ChatGPT ogranicza pewne punkty widzenia, odmawiając generowania treści na konkretne tematy polityczne. Jeśli prywatne firmy będą miały prawo decydować, jakie treści są dopuszczalne, a jakie nie są, może to prowadzić nadużyć i lawiny negatywnych konsekwencji” – piszą autorzy i autorki raportu. Raport i fakty kontra agresywny lobbing firm technologicznych Raport ukazuje się w momencie, gdy europejskie rządy zasiadają do negocjacji trójstronnych z Parlamentem i Komisją Europejską w sprawie ostatecznej treści regulacji AI – aktu o sztucznej inteligencji. A firmy technologiczne podejmują agresywne działania lobbingowe, żeby wywalczyć jak najłagodniejsze dla siebie regulacje modeli generatywnej AI. Minister Cyfryzacji Janusz Cieszyński wyraził niedawno obawę, że „przyjęcie najdalej idących regulacji dotyczących sztucznej inteligencji, o których mówi obecnie Parlament Europejski, może spowodować zabicie AI w UE ”. Nie jesteśmy przeciwko rozwojowi sztucznej inteligencji, ale zgadzamy się z rekomendacjami norweskiej Rady, które pozwolą ograniczyć jego negatywne konsekwencje dla ludzi. Między innymi: żeby chronić prawa ludzi, krajowe organy i instytucje egzekwujące przepisy aktu o AI powinny mieć odpowiednie kompetencje i finansowanie; kraje powinny kierować się zasadą ostrożności w stosunku do wykorzystania np. dużych modeli językowych w sektorze publicznym; niektóre zastosowania generatywnej AI powinny być zakazane, pozostałe – oceniane pod kątem ryzyka oraz audytowane; firmy, które dostarczają i wprowadzają systemy AI, powinny mieć obowiązek np. przeprowadzania oceny ryzyka dla praw podstawowych, wprowadzania środków minimalizujących ryzyko, wreszcie – powinny ponosić odpowiedzialność za szkody. Polecamy: Forbrukerrådet: Ghost in the machine. Addressing the consumer harms of Generative AI Działania organizacji w latach 2022–2024 dofinansowane z Funduszy Norweskich w ramach programu Aktywni Obywatele – Fundusz Krajowy. Anna Obem Autorka Filip KonopczyńskiWspółpraca Temat sztuczna inteligencja Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Czatu GPT konflikty z prawem Nie trzeba było długo czekać, żeby obok memów z papieżem wygenerowanych przez ChatGPT w sieci zaroiło się od treści zawierających manipulację i dezinformację. Aplikacja szybko „weszła” też w konflikt z prawem. 28.04.2023 Tekst Podcast Zaglądamy za kulisy powstawania AI Act. Rozmowa z Kosmą Złotowskim „Czy to dobry czas, żeby uregulować AI? Moja odpowiedź brzmi: zdecydowanie tak. To dobry czas ze względu na to, jak ogromne znaczenie ma AI” – powiedział Dragoș Tudorache, jeden ze sprawozdawców ds. aktu o AI, tuż przed tym, jak Parlament Europejski zagłosował nad rozporządzeniem. 29.06.2023 Dźwięk Artykuł Raport: Sztuczna inteligencja pod kontrolą Sztuczna inteligencja: szansa czy zagrożenie? Jakie zawody znikną w związku z rozwojem AI? Te pytania zadaje sobie wiele osób obserwujących rozwój sztucznej inteligencji. W Unii Europejskiej trwają prace nad uregulowaniem tej dynamicznie rozwijającej się sfery. Akt o sztucznej inteligencji (AI Act… 13.10.2022 Tekst