Podcast 04.05.2023 3 min. czytania Dźwięk Image Śledząc media w ostatnich miesiącach można odnieść wrażenie, że jesteśmy świadkami błyskawicznej rewolucji technologicznej. Wszystko za sprawą oddania do użytku nowych narzędzi opartych na sztucznej inteligencji – GPT, Midjourney, czy Stable Diffusion. To efekt postępu w pracy nad tzw. dużymi modelami językowymi. Z ich pomocą można tworzyć obrazy, teksty czy prowadzić długie rozmowy, przypominające dyskusję z człowiekiem. Jednak ich możliwości są potencjalnie większe – mogą objąć bardziej skomplikowane procesy: zautomatyzować analizę dużych zbiorów danych, konwersację w ramach czatbotów czy nawet tworzenie wysoce spersonalizowanych komunikatów marketingowych. I to wszystko szybciej niż najszybszy człowiek. Potencjał nowej technologii szybko dostrzegły wielkie firmy. Równocześnie z biznesowym technologicznym „wyścigiem zbrojeń” na nowo rozgorzała medialna i polityczna dyskusja o ryzyku, jakie może na nas ściągnąć sztuczna inteligencja. To m.in. właśnie ze względu na skok technologiczny modeli takich jak GPT i opartych na nich programów prace nad Aktem o Sztucznej Inteligencji wciąż nie mogą dobiec końca. Czym więc są duże modele językowe i czy znamy ich potencjał? Czy szum wokół sztucznej inteligencji, z którym mamy teraz do czynienia, jest uzasadniony? Jak to wszystko wpływa na prace nad AI Act i powstanie europejskiego modelu regulacji AI? O tym w dzisiejszym odcinku podcastu. Gościem Katarzyny Szymielewicz jest dr Tomasz Odrzygóźdź, badacz IDEAS NCBR i doktor Polskiej Akademii Nauk Odsłuchaj, dodaj do ulubionej aplikacji przez RSS lub obejrzyj na YouTubie. Na skróty: 00:01 Wstęp 02:45 Przełom w badaniach nad sztuczną inteligencją 04:55 Trenowanie algorytmu 09:55 Eksperymenty z modelem językowym 13:04 Kogo zastąpi sztuczna inteligencja? 17:33 Zagrożenia sztucznej inteligencji 20:16 Osobliwość technologiczna 25:18 Czy warto zaczekać na regulację sztucznej inteligencji? 28:15 Problemy z użyciem modeli językowych 31:50 Nowy „wyścig zbrojeń”? 34:31 Wyjaśnialność sztucznej inteligencji 38:14 Zakończenie Do poczytania: Panoptykon: ChatGPT, czyli sztuczna inteligencja w twoim domu. Czas na regulacje Panoptykon: Czatu GPT konflikty z prawem Mirosław Mamczur: Czym jest i jak działa transformer (sieć neuronowa)? Działania organizacji w latach 2022–2024 dofinansowane z Funduszy Norweskich w ramach programu Aktywni Obywatele – Fundusz Krajowy. Audio file Aleksandra Iwańska Autorka Temat sztuczna inteligencja Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Podcast Sztuczna inteligencja non-fiction Czym w rzeczywistości jest program komputerowy nazywany sztuczną inteligencją. Na jakich zasadach funkcjonuje? Do czego już dzisiaj jest wykorzystywany? Czy niesie ze sobą zagrożenia? Jak duży wpływ może mieć na życie zwykłego człowieka? Właśnie te zagadnienia poruszamy w opracowaniu pt. 05.06.2020 Dźwięk Podcast AI Act dla zwykłego człowieka. Rozmowa z dr Gabrielą Bar W marcu 2024 r. Parlament Europejski zagłosował nad aktem o sztucznej inteligencji. Co prawda trwa jeszcze uzgadnianie wersji językowych, ale można się spodziewać, że kolejne prace i zatwierdzenie tekstu będą już tylko formalnością. 28.03.2024 Dźwięk Podcast AI znaczy rozwój? Rozmowa z Janem Filipem Staniłką W tej rozmowie zbliżymy się do głównego nurtu rozmowy o technologii i człowieku: sztucznej inteligencji. Ale nie będzie to rozmowa o robotach, a o polityce. O polityce rozwoju AI na lata 2019-27, wspieraniu innowacyjności i produktywności, gonieniu światowej czołówki i o tym, czy rozwój zawsze… 07.11.2019 Dźwięk