Podcast 04.05.2023 3 min. czytania Dźwięk Image Śledząc media w ostatnich miesiącach można odnieść wrażenie, że jesteśmy świadkami błyskawicznej rewolucji technologicznej. Wszystko za sprawą oddania do użytku nowych narzędzi opartych na sztucznej inteligencji – GPT, Midjourney, czy Stable Diffusion. To efekt postępu w pracy nad tzw. dużymi modelami językowymi. Z ich pomocą można tworzyć obrazy, teksty czy prowadzić długie rozmowy, przypominające dyskusję z człowiekiem. Jednak ich możliwości są potencjalnie większe – mogą objąć bardziej skomplikowane procesy: zautomatyzować analizę dużych zbiorów danych, konwersację w ramach czatbotów czy nawet tworzenie wysoce spersonalizowanych komunikatów marketingowych. I to wszystko szybciej niż najszybszy człowiek. Potencjał nowej technologii szybko dostrzegły wielkie firmy. Równocześnie z biznesowym technologicznym „wyścigiem zbrojeń” na nowo rozgorzała medialna i polityczna dyskusja o ryzyku, jakie może na nas ściągnąć sztuczna inteligencja. To m.in. właśnie ze względu na skok technologiczny modeli takich jak GPT i opartych na nich programów prace nad Aktem o Sztucznej Inteligencji wciąż nie mogą dobiec końca. Czym więc są duże modele językowe i czy znamy ich potencjał? Czy szum wokół sztucznej inteligencji, z którym mamy teraz do czynienia, jest uzasadniony? Jak to wszystko wpływa na prace nad AI Act i powstanie europejskiego modelu regulacji AI? O tym w dzisiejszym odcinku podcastu. Gościem Katarzyny Szymielewicz jest dr Tomasz Odrzygóźdź, badacz IDEAS NCBR i doktor Polskiej Akademii Nauk Odsłuchaj, dodaj do ulubionej aplikacji przez RSS lub obejrzyj na YouTubie. Na skróty: 00:01 Wstęp 02:45 Przełom w badaniach nad sztuczną inteligencją 04:55 Trenowanie algorytmu 09:55 Eksperymenty z modelem językowym 13:04 Kogo zastąpi sztuczna inteligencja? 17:33 Zagrożenia sztucznej inteligencji 20:16 Osobliwość technologiczna 25:18 Czy warto zaczekać na regulację sztucznej inteligencji? 28:15 Problemy z użyciem modeli językowych 31:50 Nowy „wyścig zbrojeń”? 34:31 Wyjaśnialność sztucznej inteligencji 38:14 Zakończenie Do poczytania: Panoptykon: ChatGPT, czyli sztuczna inteligencja w twoim domu. Czas na regulacje Panoptykon: Czatu GPT konflikty z prawem Mirosław Mamczur: Czym jest i jak działa transformer (sieć neuronowa)? Działania organizacji w latach 2022–2024 dofinansowane z Funduszy Norweskich w ramach programu Aktywni Obywatele – Fundusz Krajowy. Audio file Aleksandra Iwańska Autorka Temat sztuczna inteligencja Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Koniec negocjacji aktu ws. sztucznej inteligencji. Nie jest dobrze, ale mogło być gorzej Za nami ostatni odcinek negocjacji trójstronnych w sprawie unijnego rozporządzenia o sztucznej inteligencji. 12.12.2023 Tekst Artykuł „Sztuczna inteligencja to pusty, nic nieznaczący slogan” – matematyczka o technologiach, wdrażaniu AI i dyskryminacji [wywiad] „Nie wiemy, czy narzędzia sztucznej inteligencji są bezpieczne, bo nie zastanawiamy się nad tym, jak to rzetelnie sprawdzić” – mówi Cathy O’Neil, matematyczka, autorka książek i badaczka algorytmów. Zapraszamy na wywiad dziennikarza Jakuba Dymka. 14.08.2024 Tekst Artykuł O co walczymy w unijnej regulacji AI? 5 postulatów Zamiast realnego zewnętrznego nadzoru nad potencjalnie szkodliwym wykorzystaniem sztucznej inteligencji i narzędzi przejrzystości i kontroli dla ludzi poddanych ich działaniu checklista „do odhaczenia” – to najpoważniejsze zarzuty wobec zaprezentowanego w kwietniu przez Komisję Europejską projektu… 01.12.2021 Tekst