Podcast 04.05.2023 3 min. czytania Dźwięk Image Śledząc media w ostatnich miesiącach można odnieść wrażenie, że jesteśmy świadkami błyskawicznej rewolucji technologicznej. Wszystko za sprawą oddania do użytku nowych narzędzi opartych na sztucznej inteligencji – GPT, Midjourney, czy Stable Diffusion. To efekt postępu w pracy nad tzw. dużymi modelami językowymi. Z ich pomocą można tworzyć obrazy, teksty czy prowadzić długie rozmowy, przypominające dyskusję z człowiekiem. Jednak ich możliwości są potencjalnie większe – mogą objąć bardziej skomplikowane procesy: zautomatyzować analizę dużych zbiorów danych, konwersację w ramach czatbotów czy nawet tworzenie wysoce spersonalizowanych komunikatów marketingowych. I to wszystko szybciej niż najszybszy człowiek. Potencjał nowej technologii szybko dostrzegły wielkie firmy. Równocześnie z biznesowym technologicznym „wyścigiem zbrojeń” na nowo rozgorzała medialna i polityczna dyskusja o ryzyku, jakie może na nas ściągnąć sztuczna inteligencja. To m.in. właśnie ze względu na skok technologiczny modeli takich jak GPT i opartych na nich programów prace nad Aktem o Sztucznej Inteligencji wciąż nie mogą dobiec końca. Czym więc są duże modele językowe i czy znamy ich potencjał? Czy szum wokół sztucznej inteligencji, z którym mamy teraz do czynienia, jest uzasadniony? Jak to wszystko wpływa na prace nad AI Act i powstanie europejskiego modelu regulacji AI? O tym w dzisiejszym odcinku podcastu. Gościem Katarzyny Szymielewicz jest dr Tomasz Odrzygóźdź, badacz IDEAS NCBR i doktor Polskiej Akademii Nauk Odsłuchaj, dodaj do ulubionej aplikacji przez RSS lub obejrzyj na YouTubie. Na skróty: 00:01 Wstęp 02:45 Przełom w badaniach nad sztuczną inteligencją 04:55 Trenowanie algorytmu 09:55 Eksperymenty z modelem językowym 13:04 Kogo zastąpi sztuczna inteligencja? 17:33 Zagrożenia sztucznej inteligencji 20:16 Osobliwość technologiczna 25:18 Czy warto zaczekać na regulację sztucznej inteligencji? 28:15 Problemy z użyciem modeli językowych 31:50 Nowy „wyścig zbrojeń”? 34:31 Wyjaśnialność sztucznej inteligencji 38:14 Zakończenie Do poczytania: Panoptykon: ChatGPT, czyli sztuczna inteligencja w twoim domu. Czas na regulacje Panoptykon: Czatu GPT konflikty z prawem Mirosław Mamczur: Czym jest i jak działa transformer (sieć neuronowa)? Działania organizacji w latach 2022–2024 dofinansowane z Funduszy Norweskich w ramach programu Aktywni Obywatele – Fundusz Krajowy. Audio file Aleksandra Iwańska Autorka Temat sztuczna inteligencja Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł UE reguluje sztuczną inteligencję: znamy pierwsze poprawki do AI Act Poznaliśmy pierwsze propozycje poprawek do unijnego aktu o sztucznej inteligencji – pierwszego takiego prawa na świecie. Zaproponowane zmiany idą w dobrą stronę, ale nie wystarczą, żeby powstająca regulacja w przyszłości skutecznie chroniła nas przed szkodliwym wykorzystaniem AI. 29.04.2022 Tekst Artykuł O AI na XVI Kongresie Obywatelskim [nagranie] Katarzyna Szymielewicz wzięła udział w XVI Kongresie Obywatelskim, który odbył się 16 października 2021 r. w warszawskim Centrum Nauki Kopernik. 27.10.2021 Tekst Artykuł Za kurtyną sztucznej inteligencji jest kryzys systemu. Wywiad z Danem McQuillanem Nie ma już sensu udawać, że sztuczna inteligencja nie zmieni naszego systemu, szczególnie na szczeblu administracji. W Panoptykonie ciągle próbujemy rejestrować próby używania najnowszych technologii przez urzędy albo służby. Bo za zasłoną technologii najczęściej kryje się kryzys całego systemu. 29.11.2024 Tekst