Podcast 04.05.2023 3 min. czytania Dźwięk Image Śledząc media w ostatnich miesiącach można odnieść wrażenie, że jesteśmy świadkami błyskawicznej rewolucji technologicznej. Wszystko za sprawą oddania do użytku nowych narzędzi opartych na sztucznej inteligencji – GPT, Midjourney, czy Stable Diffusion. To efekt postępu w pracy nad tzw. dużymi modelami językowymi. Z ich pomocą można tworzyć obrazy, teksty czy prowadzić długie rozmowy, przypominające dyskusję z człowiekiem. Jednak ich możliwości są potencjalnie większe – mogą objąć bardziej skomplikowane procesy: zautomatyzować analizę dużych zbiorów danych, konwersację w ramach czatbotów czy nawet tworzenie wysoce spersonalizowanych komunikatów marketingowych. I to wszystko szybciej niż najszybszy człowiek. Potencjał nowej technologii szybko dostrzegły wielkie firmy. Równocześnie z biznesowym technologicznym „wyścigiem zbrojeń” na nowo rozgorzała medialna i polityczna dyskusja o ryzyku, jakie może na nas ściągnąć sztuczna inteligencja. To m.in. właśnie ze względu na skok technologiczny modeli takich jak GPT i opartych na nich programów prace nad Aktem o Sztucznej Inteligencji wciąż nie mogą dobiec końca. Czym więc są duże modele językowe i czy znamy ich potencjał? Czy szum wokół sztucznej inteligencji, z którym mamy teraz do czynienia, jest uzasadniony? Jak to wszystko wpływa na prace nad AI Act i powstanie europejskiego modelu regulacji AI? O tym w dzisiejszym odcinku podcastu. Gościem Katarzyny Szymielewicz jest dr Tomasz Odrzygóźdź, badacz IDEAS NCBR i doktor Polskiej Akademii Nauk Odsłuchaj, dodaj do ulubionej aplikacji przez RSS lub obejrzyj na YouTubie. Na skróty: 00:01 Wstęp 02:45 Przełom w badaniach nad sztuczną inteligencją 04:55 Trenowanie algorytmu 09:55 Eksperymenty z modelem językowym 13:04 Kogo zastąpi sztuczna inteligencja? 17:33 Zagrożenia sztucznej inteligencji 20:16 Osobliwość technologiczna 25:18 Czy warto zaczekać na regulację sztucznej inteligencji? 28:15 Problemy z użyciem modeli językowych 31:50 Nowy „wyścig zbrojeń”? 34:31 Wyjaśnialność sztucznej inteligencji 38:14 Zakończenie Do poczytania: Panoptykon: ChatGPT, czyli sztuczna inteligencja w twoim domu. Czas na regulacje Panoptykon: Czatu GPT konflikty z prawem Mirosław Mamczur: Czym jest i jak działa transformer (sieć neuronowa)? Działania organizacji w latach 2022–2024 dofinansowane z Funduszy Norweskich w ramach programu Aktywni Obywatele – Fundusz Krajowy. Audio file Aleksandra Iwańska Autorka Temat sztuczna inteligencja Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Podcast Trwa walka o regulację sztucznej inteligencji w UE. Rozmowa z Filipem Konopczyńskim Kamery rozpoznające twarze. Bramki na lotniskach. Drony skanujące las, żeby wykrywać nielegalne wysypiska. I drony skanujące las na granicy, żeby wykrywać ludzi. Mówiące lodówki i Chat GPT. 18.05.2023 Dźwięk Artykuł Krwiożerczy kapitalizm vs nowe technologie [recenzja] Nieskrywana ekscytacja z nutką sceptycyzmu – Aleksandra Przegalińska i Paweł Oksanowicz o AI w wywiadzie rzece pt. „Sztuczna inteligencja. Nieludzka, arcyludzka”. 18.08.2023 Tekst Artykuł Sztuczna inteligencja – trzy mity, które trzeba rozbroić Sztuczna inteligencja (AI) ma renomę podobną do atomu. Jedni twierdzą, że jest rozwiązaniem na dręczące ludzkość problemy; drudzy, że zdetronizuje, a nawet zgładzi homo sapiens. 18.02.2020 Tekst