Podcast 04.05.2023 3 min. czytania Dźwięk Image Śledząc media w ostatnich miesiącach można odnieść wrażenie, że jesteśmy świadkami błyskawicznej rewolucji technologicznej. Wszystko za sprawą oddania do użytku nowych narzędzi opartych na sztucznej inteligencji – GPT, Midjourney, czy Stable Diffusion. To efekt postępu w pracy nad tzw. dużymi modelami językowymi. Z ich pomocą można tworzyć obrazy, teksty czy prowadzić długie rozmowy, przypominające dyskusję z człowiekiem. Jednak ich możliwości są potencjalnie większe – mogą objąć bardziej skomplikowane procesy: zautomatyzować analizę dużych zbiorów danych, konwersację w ramach czatbotów czy nawet tworzenie wysoce spersonalizowanych komunikatów marketingowych. I to wszystko szybciej niż najszybszy człowiek. Potencjał nowej technologii szybko dostrzegły wielkie firmy. Równocześnie z biznesowym technologicznym „wyścigiem zbrojeń” na nowo rozgorzała medialna i polityczna dyskusja o ryzyku, jakie może na nas ściągnąć sztuczna inteligencja. To m.in. właśnie ze względu na skok technologiczny modeli takich jak GPT i opartych na nich programów prace nad Aktem o Sztucznej Inteligencji wciąż nie mogą dobiec końca. Czym więc są duże modele językowe i czy znamy ich potencjał? Czy szum wokół sztucznej inteligencji, z którym mamy teraz do czynienia, jest uzasadniony? Jak to wszystko wpływa na prace nad AI Act i powstanie europejskiego modelu regulacji AI? O tym w dzisiejszym odcinku podcastu. Gościem Katarzyny Szymielewicz jest dr Tomasz Odrzygóźdź, badacz IDEAS NCBR i doktor Polskiej Akademii Nauk Odsłuchaj, dodaj do ulubionej aplikacji przez RSS lub obejrzyj na YouTubie. Na skróty: 00:01 Wstęp 02:45 Przełom w badaniach nad sztuczną inteligencją 04:55 Trenowanie algorytmu 09:55 Eksperymenty z modelem językowym 13:04 Kogo zastąpi sztuczna inteligencja? 17:33 Zagrożenia sztucznej inteligencji 20:16 Osobliwość technologiczna 25:18 Czy warto zaczekać na regulację sztucznej inteligencji? 28:15 Problemy z użyciem modeli językowych 31:50 Nowy „wyścig zbrojeń”? 34:31 Wyjaśnialność sztucznej inteligencji 38:14 Zakończenie Do poczytania: Panoptykon: ChatGPT, czyli sztuczna inteligencja w twoim domu. Czas na regulacje Panoptykon: Czatu GPT konflikty z prawem Mirosław Mamczur: Czym jest i jak działa transformer (sieć neuronowa)? Działania organizacji w latach 2022–2024 dofinansowane z Funduszy Norweskich w ramach programu Aktywni Obywatele – Fundusz Krajowy. Audio file Aleksandra Iwańska Autorka Temat sztuczna inteligencja Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł LaMDA – wiele hałasu o nic? W kwietniu 2022 r. zatrudniony w Google inżynier Blake Lemoine w wewnętrznym 22.11.2022 Tekst Artykuł Raport: Sztuczna inteligencja pod kontrolą Sztuczna inteligencja: szansa czy zagrożenie? Jakie zawody znikną w związku z rozwojem AI? Te pytania zadaje sobie wiele osób obserwujących rozwój sztucznej inteligencji. W Unii Europejskiej trwają prace nad uregulowaniem tej dynamicznie rozwijającej się sfery. Akt o sztucznej inteligencji (AI Act… 13.10.2022 Tekst Artykuł „Sztuczna inteligencja to pusty, nic nieznaczący slogan” – matematyczka o technologiach, wdrażaniu AI i dyskryminacji [wywiad] „Nie wiemy, czy narzędzia sztucznej inteligencji są bezpieczne, bo nie zastanawiamy się nad tym, jak to rzetelnie sprawdzić” – mówi Cathy O’Neil, matematyczka, autorka książek i badaczka algorytmów. Zapraszamy na wywiad dziennikarza Jakuba Dymka. 14.08.2024 Tekst