ChatGPT, czyli sztuczna inteligencja w twoim domu. Czas na regulacje

Artykuł

Wiele wskazuje, że zima 2022/2023 r. to w historii technologii sztucznej inteligencji moment przełomowy. Nie chodzi jednak o nową rewolucję naukową (ta trwa już od dłuższego czasu), ale o popularyzację tematu. Wraz z geometrycznym wzrostem użytkowników i użytkowniczek produktów bazujących na generatywnej AI (generative AI) wychodzą na jaw kolejne skutki uboczne nowych rozwiązań.

Choć o prawie mówi się zazwyczaj, że podąża dwa kroki za rozwojem, akurat tym razem próbuje go dogonić. Do końca roku poznamy ostateczny kształt aktu o sztucznej inteligencji, który odnosi się również do GP AI. To, czy cieszące się coraz większą popularnością systemy zostaną uznane za technologie wysokiego ryzyka, jest jednak jeszcze kwestią otwartą.


AI trafia pod strzechy
Czym jest generatywna sztuczna inteligencja?
Czy nowe AI zastąpi wyszukiwarki?
Czy jest się czego bać?
Sztuczna inteligencja a prawo: co działa, czego brakuje?
Nowe prawo specjalnie dla AI
Co dalej ze sztuczną inteligencją? Propozycje w akcie o sztucznej inteligencji


AI trafia pod strzechy

Między listopadem a lutym liczba wyszukiwań hasła „AI” w Google’u na całym świecie wzrosła nawet o połowę, zaś w Polsce – niemal trzykrotnie. Ostatnia nowinka: z aplikacji ChatGPT skorzystało w ciągu miesiąca od jej uruchomienia ponad 100 milionów osób. Oznacza to, że ma ona najszybciej rosnącą bazę użytkowników w historii Internetu. Popularność tematu ma bezpośredni związek z oddaniem do powszechnego użytku nowych narzędzi opartych na generatywnej sztucznej inteligencji. Najbardziej znane to ChatGPT i Dall-E (oba od Open.AI), Stable Diffusion, Midjourney czy Lensa.AI (od Prisma Labs). Co je łączy? Pozwalają na wygenerowanie treści łudząco podobnych do tych stworzonych przez człowieka. Programy tego typu potrafią już naśladować obrazy, fotografie (np. Midjourney), artykuły, instrukcje, poematy, linie kodu programistycznego, głos konkretnych osób (Prime Voice AI od Eleven.AI), a nawet materiały wideo (Synthesia, Gen-1). W niedalekiej przyszłości generatywna AI będzie wykorzystywana w kolejnych sektorach (np. w robotyce, medycynie, dronach). Już dziś zmienia jednak sposób, w jaki myślimy o technologii.

W zalewie informacji o nowinkach ze świata AI wiele głosów wieszczy rewolucję, którą nowa technologia wywoła w najróżniejszych obszarach życia. Powtarzane są tezy o „końcu pracy”, „triumfie dezinformacji” czy „zmierzchu ludzkości, jaką znamy”. Powraca pytanie o to, czy technologii udało się już przejść tzw. test Turinga, a na topowych konferencjach naukowych rozważa się, czy może ona uzyskać świadomość. Nowe funkcjonalności potrafią zawrócić w głowie nawet specjalistom! W zeszłym roku opisywaliśmy historię inżyniera Google’a, który twierdził, że chatbot, nad którym pracował (model LaMDA), „uzyskał świadomość”.

Czym jest generatywna sztuczna inteligencja?

Zamiast snuć filozoficzne dywagacje o „technologicznej osobliwości” (singularity) przypomnijmy, czym tak naprawdę jest AI (której podtypem są modele generatywne). Jak pisaliśmy w przewodniku Sztuczna inteligencja non-fiction:

„Sztuczna inteligencja” to określenie programu komputerowego, który zamiast wykonywać listę dokładnych instrukcji wykorzystuje zaawansowane modele statystyczne do tego, żeby rozwiązać zadanie. „Inteligencja” w tym przypadku oznacza, że program – na podstawie zbioru danych zawierającego przykłady zadań i poprawne odpowiedzi – sam znajduje występujące między nimi zależności (wzorce).

Warto więc przyjrzeć się fenomenowi rozwoju generatywnej AI na spokojnie. I przypomnieć, że tak jak w przypadku wszystkich innych wynalazków nie jesteśmy bezradni. Wręcz przeciwnie. Mamy na nie decydujący wpływ – nie tylko jako twórcy, ale też jako obywatelki, wyborcy i konsumentki.

Pojęcie „generatywna sztuczna inteligencja” (Generative AI) i używane w podobnych kontekstach określenie o nieco szerszym znaczeniu „sztuczna inteligencja ogólnego przeznaczenia” (General Purpose AI, GP AI) nie są terminami stricte akademickimi. Pojawiają się m.in. w projektach aktów prawnych Unii Europejskiej, gdzie przyjęły się ze względu na swoją użyteczność. Opisują wielofunkcyjne programy, które powstały w ostatnim czasie dzięki postępowi w badaniach nad AI.

Według naukowców należy się posługiwać kategorią klasy algorytmów uczenia maszynowego, które umożliwiają modelowanie rozkładu łącznego na podstawie dostarczonych danych. Szczególnie ważnym typem generatywnej AI są tzw. duże modele językowe (large language models). Wyróżnia je to, że – zgodnie z nazwą – przetwarzają informacje, które mają strukturę języka: zarówno naturalnego (polski, angielski, sanskryt itp.), jak i formalnego (np. JAVA, Python, R), ale także odpowiednio zakodowanego obrazu lub dźwięku.

Z punktu widzenia użytkowników do tej kategorii AI możemy zaliczyć programy, które za pomocą wpisywanych lub wypowiadanych komend w języku naturalnym umożliwiają tworzenie m.in. tekstu, dźwięku, obrazu czy kodu. Czaty, wirtualni doradcy czy oferujące coraz więcej funkcji programy-asystenci (takie jak np. GPT) już dziś prezentują wachlarz usług, które do niedawna wydawały się możliwe do wykonania tylko przez ludzi o odpowiednich kwalifikacjach. To samo można powiedzieć o modelach przetwarzających obrazy lub zdjęcia (np. postarzających widniejące na nich osoby). Wśród tych ostatnich najbardziej popularne narzędzia to Dall-E, Stable Diffusion, Midjourney, Lensa. Wciąż nie wiemy, jak duże są możliwości tej generacji AI, a potencjał automatyzowania bardzo różnych procesów potrafi rozpalić wyobraźnię. Niektórzy eksperci spekulują wręcz, że stoimy u progu przełomu technologicznego i gospodarczego.

Czy nowe AI zastąpi wyszukiwarki?

Mimo medialnego szumu nie wszyscy eksperci są pod wrażeniem dzisiejszej generatywnej sztucznej inteligencji. Zdaniem prof. Yanna Le Cuna, wybitnego matematyka oraz wiceszefa Meta, dzisiejsze modele generatywnej AI z naukowego punktu widzenia nie są szczególnie innowacyjne. Spektakularne efekty, które osiągają, to wynik żmudnej pracy programistów i inżynierów, którzy „poprawili” sposób, w jaki algorytmy przetwarzają informacje w dostępnych bazach danych, na których są uczone. Le Cun uważa także, że znane mu duże modele językowe nie nadają się do używania jako źródło informacji (czyli np. wyszukiwarki). Mogą być przydatne jedynie jako dodatkowa pomoc przy pisaniu, programowaniu itp.

W Polsce z dystansem do ChatGPT podchodzi m.in. dr hab. Piotr Gawrysiak z Politechniki Warszawskiej, który zwraca uwagę, że mimo wielu zalet jak na razie ta technologia nie daje podstaw, by mówić o naukowej czy biznesowej rewolucji. Prof. informatyki z Princeton Arvind Narayanan idzie w słowach krytyki jeszcze dalej. Według niego ze względu na duży współczynnik błędów ChatGPT nadaje się tylko do „generowania bzdur”.

Mimo sceptycznych głosów wielka popularność ChatGPT błyskawicznie sprawiła, że generatywna AI stało się jednym z głównych tematów rozmów w największych firmach technologicznych. Jeszcze w grudniu ubiegłego roku CEO Google (tj. Alphabet) Sundar Pichai ogłosił podobno w firmie nieformalny „czerwony alarm”. Powód: ryzyko utraty przez wyszukiwarkę Google dominującej pozycji rynkowej. Niedługo później amerykańska korporacja zakomunikowała, że zamierza przyspieszyć start własnego wielofunkcyjnego chatbota pod nazwą „Bard”.

Jeszcze bardziej zdecydowane kroki podjął Microsoft. CEO Satya Nadella pod koniec stycznia zainwestował w OpenAI około 10 miliardów dolarów i zapowiedział, że nowe funkcjonalności oparte na AI zostaną włączone w produkty firmy. Już kilkanaście dni później, na konferencji prasowej, korporacja zaprezentowała pierwszą wersję wyszukiwarki Bing z wbudowanym modułem bazującym na ChatGPT (z wersji próbnej korzystali już m.in. polscy dziennikarze). Podobną technologię rozwijają i chcą wprowadzać inne korporacje z sektora technologicznego – w tym m.in. chińscy giganci Baidu i Alibaba.

Czy jest się czego bać?

Choć z nową formą generatywnej AI mamy do czynienia od niedawna, w środowiskach eksperckich słychać już głosy ostrzegające przed potencjalnymi zagrożeniami. Najczęściej wymieniane problemy to:

  • Odpowiedzialność prawna

Twoje zdjęcie lub głos został wykorzystany do stworzenia deepfake’a, którym następnie ktoś cię szantażował lub próbował zniszczyć twoją reputację. Kto powinien ponosić za to odpowiedzialność? W regulaminie ChatGPT przeczytamy, że osoba, która w ten sposób skorzystała z aplikacji (tj. najczęściej wpisując hasła – tzw. „prompty”). Ale czy twórcy oprogramowania, którzy nie zabezpieczyli go przed takim użyciem, nie powinni również zostać pociągnięci do odpowiedzialności? Jak te zasady będą wyglądać po włączeniu produktu OpenAI w usługi Microsoftu? Zapisy regulaminów firm nie powinny mieć decydującego wpływu na decyzję, w razie gdyby osoba pokrzywdzona postanowiła szukać sprawiedliwości w sądzie lub odpowiednim urzędzie.

  • Dyskryminacja i uprzedzenia

Systemy AI mogą przyczyniać się do dyskryminacji ze względu na płeć, kolor skóry, pochodzenie, stopień niepełnosprawności itd. AI uczy się także ludzkich błędów: to, jakie wzorce będą powielać, zależy m.in. od danych, na których były trenowane, czy wrażliwości samych programistów. Część twórców modeli generatywnej AI na szczęście dostrzega ten problem. Firma Open AI podjęła decyzję o udostępnieniu do użytku „ocenzurowanej” wersji Dall-E po tym, jak zewnętrzni eksperci dowiedli, że ich algorytmy znacznie częściej wytwarzają obrazy przedstawiające białych mężczyzn, seksualizują wizerunki kobiet i wzmacniają stereotypy rasowe. Bez odpowiednich regulacji osoby potencjalnie pokrzywdzone mogą liczyć tylko na wewnętrzne standardy etyczne twórców oprogramowania. Nie wiadomo, kto w świetle prawa ponosiłby odpowiedzialność za negatywne konsekwencje „uprzedzonych” (biased) modeli ani nawet w jaki sposób udowodnić, czy i z jakiego powodu ewentualna dyskryminacja miała miejsce.

  • Jeszcze mniej prywatności

Modele generatywnej sztucznej inteligencji korzystają z publicznie dostępnych danych (w tym osobowych). Często nieświadomie pomagamy je trenować – udostępniając zdjęcia w mediach społecznościowych lub samodzielnie wygrywając swój wizerunek do określonego programu, tylko po to, by dostać nowe „profilowe”: starsze, młodsze lub po prostu wygładzone. Udoskonalone na naszych danych algorytmy są potem wykorzystywane na inne sposoby. Mogą służyć jeszcze dokładniejszemu profilowaniu czy śledzeniu – zarówno przez firmy prywatne (reklamy), jak i instytucje państwowe (inwigilacja). Jest to szczególnie niebezpieczne w kontekście modeli AI firm takich jak Meta czy TikTok, których model biznesowy opiera się na komercjalizacji naszej prywatności. Jeśli zbierane przez nich nasze dane będą użyte do uczenia sieci neuronowych, może się okazać, że generatywna AI będzie wiedzieć o nas więcej, niż jesteśmy sobie w stanie wyobrazić.

  • Dezinformacja

Robienie fake newsów i deep fake’ów nigdy nie było tak szybkie, tanie i proste. Czas pokaże, czy taśmowo przygotowywanie zdjęcia, teksty lub materiały wideo staną się standardowym arsenałem nieetycznych agencji marketingu politycznego. Szerokie użycie generatywnej AI może się też przełożyć na dalszy spadek zaufania do mediów i na jeszcze mocniejsze okopanie się w bańkach informacyjnych ich odbiorców. Odpowiedzią na to mogłoby być np. obowiązkowe znakowanie (watermark) efektów pracy AI – nawet wtedy, kiedy za ostateczny rezultat odpowiada człowiek.

  • Rozwój nieetycznych modeli biznesowych

Według wielu ekspertów ostatni kierunek rozwoju programów takich jak ChatGPT może negatywnie wpłynąć na model działania całej branży. Podobne usługi od dłuższego czasu są opracowywane m.in. przez Google’a czy Metę, ale do tej pory nie zostały udostępnione zwykłym internautom i internautkom z powodu ryzyk: niepewnego statusu prawnego baz danych, współczynnika fałszywych lub szkodliwych treści generowanych przez takie systemy oraz odpowiedzialności wobec akcjonariuszy. Co ciekawe, w alarmistycznym tonie wypowiadają się tutaj zarówno przedstawiciele organizacji społecznych (Daniel Leufer z Access Now), jak i samej branży. Emad Mostaque, szef Stability AI, skrytykował OpenAI m.in. za nieprawidłowości i potencjalne zagrożenia wywołane niejasnym z punktu widzenia prawa procesem tworzenia baz danych, na których trenowano modele AI.

Problemów jest jednak więcej. Generatywna AI może zostać wykorzystana do zmasowanego cyberbullyingu, oszustw internetowych i innych cyberprzestępstw. Niewątpliwie będzie miała też znaczący wpływ na edukację, poziom nauki i prawa twórców. Na tym polu doszło już do pierwszej sprawy sądowej, w której firma Getty Images pozwała dewelopera Stable Diffusion (Stability AI) o bezprawne korzystanie ze zdjęć z ich bazy.

Jeszcze większy problem mogą mieć dziennikarze: ChatGPT pozwala na analizę wiadomości z różnych źródeł, co może wpłynąć na zmniejszenie odsłon, a więc dochodów mediów. Popularność generatywnej AI wzmogła także dyskusję o technologicznym bezrobociu i nierównościach ekonomicznych. Nawet osoby, które jeszcze kilka lat temu były sceptycznie nastawione do tezy o tym, że „automatyzacja zabiera ludziom pracę” (jak np. prof. Deren Acemoglu), teraz otwarcie przestrzegają, że masowe wprowadzanie rozwiązań opartych o AI może prowadzić do dalszego rozwarstwienia, dyskryminacji w dostępie do usług oraz politycznej radykalizacji.

Sztuczna inteligencja a prawo: co działa, czego brakuje?

W obliczu tego morza wyzwań można odnieść wrażenie, że jesteśmy skazani na łaskę i niełaskę producentów rozwiązań wykorzystujących sztuczną inteligencję. Tak jednak nie jest. Już teraz AI jest objęta szeregiem regulacji (ustaw, rozporządzeń, traktatów międzynarodowych, a także zasad czy standardów technicznych). Co reguluje sztuczną inteligencję?

  • rozporządzenie o ochronie danych osobowych (RODO), któremu podlegają wszystkie modele AI dostępne w Europie wykorzystujące zbiory informacji o osobach prywatnych;
  • prawo własności intelektualnej – na jego podstawie swoich praw dochodzić mogą artyści, których prace bez wiedzy i zgody były wykorzystywane do trenowania modelu i wytworzenia nowych obrazów;
  • przepisy z obszaru cyberbezpieczeństwa, które warunkują dopuszczenie produktów opartych o AI w infrastrukturze krytycznej;
  • akt o usługach cyfrowych (DSA) i akt o rynkach cyfrowych (DMA) – regulujące działanie platform cyfrowych takich jak Facebook, YouTube czy TikTok, których usługi korzystają z algorytmów do rekomendowania i moderowania treści. Zgodnie z nowymi regulacjami najprawdopodobniej od początku 2024 r. wszystkie platformy będą zobowiązane m.in. do publikowania analiz ryzyka dotyczących swoich usług, a także do wykazywania przed Komisją Europejską środków zaradczych wdrożonych, by je wyeliminować.

Nie jest zatem tak, że nie mamy prawa, który ten obszar reguluje. Nadal jednak ta układanka ma białe plamy. Co gorsza, różne obszary działania systemów AI nadzorują i kontrolują osobne instytucje, co rozprasza odpowiedzialność i ułatwia selektywne przestrzeganie przepisów.

Nowe prawo specjalnie dla AI

Już niedługo w Unii Europejskiej pojawi się regulacja poświęcona sztucznej inteligencji: AI Act (akt o sztucznej inteligencji). W założeniach miała ona promować europejskie, bardziej odpowiedzialne spojrzenie na AI. Niestety już projekt Komisji Europejskiej, z kwietnia 2021 r., okazał się mniej ambitny, niż zakładano. Luk nie uzupełniła też propozycja Rady Europejskiej z listopada 2022 r. (pisaliśmy już o niej pod koniec minionego roku).

Wraz z innymi europejskimi organizacjami zrzeszonymi w sieci EDRi rekomendowaliśmy uzupełnienie AI Act m.in. o konkretne rozwiązania chroniące człowieka. Chcemy, żeby:

  • ludzie mogli wnieść skargę do odpowiedniego organu w swoim kraju, jeśli system AI narusza ich prawa;
  • ludzie mogli się domagać wyjaśnienia istotnych decyzji podejmowanych z wykorzystaniem AI (nawet jeśli w takim procesie brał udział człowiek);
  • organizacje społeczne, takie jak Panoptykon, mogły reprezentować osoby, których prawa są naruszane;
  • wszystkie podmioty wdrażające systemy AI (zarówno prywatne, jak i publiczne, także te odpowiedzialne za nasze bezpieczeństwo) miały obowiązek analizowania wpływu tych systemów na prawa człowieka;
  • ludzie byli informowani, że mają do czynienia z AI – zwłaszcza jeśli to zetknięcie niesie za sobą realne ryzyko, że ich prawa zostaną naruszone.

Co dalej ze sztuczną inteligencją? Propozycje w akcie o sztucznej inteligencji

Poruszenie wokół generatywnej AI nie umknęło też unijnym ustawodawcom. Thierry Breton (doświadczony francuski menedżer i polityk, a obecnie unijny komisarz do spraw rynku wewnętrznego), zapytany na początku lutego o ChatGPT, powiedział, że „potrzebna jest solidna europejska rama regulacyjna, która zapewni wysoki poziom zaufania do AI zbudowanej na wysokiej jakości danych”. Jego opinię podziela także część europarlamentarzystów.

Wersję aktu o sztucznej inteligencji wypracowaną przez Parlament poznamy w kwietniu 2023 r., ale już teraz mamy przecieki dotyczące podejścia do zagrożeń związanych z generatywną AI. W propozycji Parlamentu kluczowe jest to, na ile treści wytworzone przez AI przypominają te tworzone przez człowieka. Za AI wysokiego ryzyka uznane zostałyby wszystkie systemy pozwalające tworzyć tzw. deepfake, czyli zdjęcia, nagrania, filmy, w których prawdziwym osobom (tj. ich cyfrowym awatarom) przypisuje się działania i słowa, których nigdy nie zrobiły czy nie mówiły. Uznanie generatywnej AI za system wysokiego ryzyka wiązałoby się m.in. z koniecznością dokonania wstępnego audytu oraz stałego monitoringu pod kątem możliwych naruszeń dla praw podstawowych. Rzecz jasna, Parlament przewidział wyjątki m.in. związane z zastosowaniem AI w działalności artystycznej, satyrycznej lub innej, w której odbiorca wyraźnie wie, że ma do czynienia z fikcją.

Z kolei projekt Rady Europejskiej zakłada, że ważniejsze od tego, czy dany produkt korzysta, czy nie, z generative AI, jest obszar, w jakim będzie stosowany. Dlatego nałożyli specjalne obowiązki na producentów systemów, które wykorzystują „sztuczną inteligencją ogólnego przeznaczenia” (general purpose AI systems, GP AI) w obszarach zwiększonego ryzyka (m .in. zwalczanie przestępczości, edukacja, rynek pracy). Są to m.in. obowiązki rejestracji systemów wysokiego ryzyka, przedstawicielstwa w kraju Unii, prowadzenia audytu, monitoringu oraz spełnienia standardów zarządzania bazami danych czy gromadzenia i obiegu informacji. W propozycji Rady pojawiła się również dodatkowa furtka. Wystarczy, że producent oprogramowania zrezygnuje z „reklamowania” go jako systemu stosowanego w obszarach podwyższonego ryzyka, przez co zostanie zwolniony z ww. obowiązków.

Zgodnie z kalendarzem prac Parlamentu UE ostateczny kształt nowych przepisów regulujących sztuczną inteligencję, w tym jej generatywną odmianę, powinniśmy poznać do końca tego roku. Doświadczenie uczy, że kolejne miesiące, w czasie których ucierać się będą stanowiska Parlamentu, Komisji Europejskiej i Rady, mogą przynieść niejeden zwrot akcji i zmiany w proponowanych przepisach. Jedno jest pewne: lista zagrożeń związana z nowymi programami wykorzystującymi generatywną AI na pewno się wydłuży. A fakt, że rozwiązania te notują rekordowy przyrost użytkowników, dobitnie podkreśla potrzebę objęcia ich kompleksowymi przepisami.

Przypomnijmy postulaty, które mają znaczenie dla regulacji generatywnej AI:

  • obowiązek poddania systemów sztucznej inteligencji audytom i kontroli pod kątem m.in. zgodności z prawami podstawowymi (fundamental rights impact assessment), wpływu na zdrowie, demokrację czy środowisko;
  • wymóg informowania ludzi o jej użyciu;
  • prawo reprezentowania pokrzywdzonych osób i grup przez organizacje społeczne.

Jeśli finalna wersja aktu o sztucznej inteligencji nie uwzględni tych punktów – walka z dyskryminacją przez algorytmy, internetową agresją, dezinformacją i innymi szkodliwymi sposobami wykorzystywania AI może okazać się jeszcze trudniejsza niż obecnie. To m.in. z tego powodu tak ważne są negocjacje nowego prawa.

Filip Konopczyński
Współpraca: Katarzyna Szymielewicz, Maria Wróblewska

Polecamy:


Działania organizacji w latach 2022–2024 dofinansowane z Funduszy Norweskich w ramach programu Aktywni Obywatele – Fundusz Krajowy.

Komentarze

Co do tego, czy AI jest generatywna czy destruktywna to zdania są podzielone. Ja uważam to narzędzie za głównie destrukcyjne. Na początek jednak omówię do czego służy nóż.

Nóż został stworzony do krojenia różnych rzeczy, np. sera czy mięsa (proponuję partiom po wprowadzeniu robaczanej diety delegalizację noża bo już nie będzie potrzebny).

Z czasem jednak nóż zaczął być wykorzystywany do innych celów: rozsmarowywania smalcu czy masła (dla robakojadów: margaryny), z czasem też zaczął służyć jako broń - do zabijania. Od tamtego czasu ze względów bezpieczeństwa do wielu miejsc nie da się wejść, bo nóż jest uważany jako by był jedynie do zabijania.

Z czasem też nóż zaczęto wykorzystywać całkowicie nieprawidłowo: służy do odkręcania śrubek (zamiast śrubokręta) lub podważania obudowy elektroniki, gdzie jego użycie poprzez zrobienie zwarcia może być opłakane w skutkach (zapalenie baterii w urządzeniu).

Podobnie będzie z "generatywną AI". Już teraz odbiera wiedzę i umiejętności naszym uczniom, którym świetnie po polsku pisze rozprawki a dzieci siedzą jak zombie przed monitorami lub też przed teleekranami 1984 (smartfonami).

Z czasem prawnik nie będzie chciał się uczyć tych wszystkich przepisów i zrobi orzeczenie sądowe w oparciu o potajemnie użytą sztuczną inteligencję w domu. Podobnie jak dzieje się to z lekarzami, którzy pytają google o diagnozę. ba więcej, zdarzały się wyroki w oparciu o zapytanie google...

Później przyjdzie czas na podobny upadek medycyny. Wystawienie diagnozy jedynie w oparciu o opinię maszyny. Gdy ta może być błędna. CzatGPT podobnie jak BARDacha (która straciła 100 mld zł w jeden dzień) zwraca błędne lub zmyślone informacje. Co z ludźmi, którzy mogliby żyć, gdyby obejrzał ich lekarz i postawił poprawną diagnozę? Niestety, ale lekarze ponieważ chcą mieć jak najwięcej wolnego czasu będą szli też w stronę AI nawet kosztem bardzo wysokiego zmniejszenia jakości swoich usług. Ważne by złapać jak najwięcej $ lub Є przy jak najmniejszym wysiłku i dotyczy to praktycznier wszystkich zawodów.

Więc brawo - jesteśmy na najlepszej drodze do destrukcji ludzkości zarówno jako gatunku jak i w rozumieniu człowieczeństwa. Ta technologia doprowadzi do masowego wymierania ludzi choćby z powodu głodu.

Niestety nic nie widzę w tym akcie na temat ochrony kultury ani pracowników kreatywnych. Jako artystka i graficzka wypowiem się na temat swojej branży:
- portfolio w Internecie jest podstawą przy szukaniu zleceń i etatu. Niestety nie można już na nim polegać, bo nawet profesjonaliści nie mogą powiedzieć, czy część pracy nie została wykonana z pomocą generatora obrazów. To już teraz bardzo utrudnia szukanie zleceń. Ponadto, wszelkie profesjonalne strony internetowe dla artystów, gdzie mogliśmy zyskać zlecenia i rozwijać networking, jak i własną markę, zostały dosłownie zalane przez AI, te niezbędne dla kariery funkcje zaś zostały dla nas bezpowrotnie utracone.
- Moi znajomi z różnych krajów tracą zlecenia, a ich kontrakty zostają skrócone już teraz - co dopiero będzie za jakiś czas?
- Generatory obrazów AI bazują na bazach danych, które zawierają id prac artystów, których nikt nie zapytał o zgodę, od których firmy AI zwyczajnie kradną. Bez prac artystów, którzy włożyli w nie mnóstwo czasu i pracy, nie byłoby nawet jednego obrazka midjourney. A jednak ta ostatnia firma, jak również SD i inne, w żaden sposób nie zrekompensowały tego, co wyrządziły artystom, finansowo.
- Sztuka, tak profesjonalna, jak i amatorska, ma w społeczeństwie konkretne znaczenie, jest w niej ważny autentyzm, doświadczenie drugiego człowieka, poświęcenie się opanowaniu wybranego medium. Odbiorca darzy twórcę zaufaniem, że odnajdzie w dziele te wartości; że będzie mógł traktować pracę artysty jako świadectwo albo przestrzeń dialogu. Niemniej za chwilę, może już za rok, a może już teraz, odbiorca nie będzie w żaden sposób potrafił stwierdzić, czy patrzy na dzieło artysty, czy wygenerowany automatycznie obraz z pomocą AI. Przy szybkości tworzenia obrazów przez AI, prace człowieka zostaną zepchnięte do czeluści internetu.
- Wszelkie stocki ze zdjęciami, produkty digitalowe na różnorodnych platformach, etsy, strony POD, strony dla freelancerów - każda jedna z tych rzeczy zostaje zalana przez AI i osoby liczące na szybki zysk dzięki temu.
- Artyści, graficy, twórcy assetów do gier, webdesignerzy, concept artyści, ilustratorzy... to osoby, które poświęciły dekady życia nieraz, by móc być konkurencyjnym na niezwykle trudnym, przepełnionym rynku kreatywnym. Aby utrzymać ze swojej pracy siebie i swoje rodziny. I bardzo, bardzo wiele z tych osób straci pracę. Zaczyna ją tracić już dziś. Wszyscy zaś cierpią na zdrowiu psychicznym, z powodu ogromnej niepewności finansowej.

Dlaczego zatem tak trudno wziąć drugiego człowieka pod uwagę?

Dodaj komentarz