Podcast 20.06.2024 2 min. czytania Dźwięk Image ChatGPT i inne duże modele językowe od wielu miesięcy są już używane w funkcji asystentów głosowych. Z badań wiemy, że blisko 1/3 Polaków korzysta z głosowego wyszukiwania na swoich telefonach. Jak jeszcze używamy sztucznej inteligencji? Na rynku pojawia się coraz więcej aplikacji, które wykorzystują ChatGPT do praktycznie wszystkiego: monitorowanie stanu zdrowia, wyszukiwanie informacji, ocena wydajności pracy, tworzenie muzyki, tekstów czy obrazów. W zestawieniach wyjątkowo często pojawiają się boty, które pomagają w nawiązywaniu konwersacji. Albo w dbaniu o zdrowie psychiczne. Ale boty, wykorzystywane tak jak terapeuci, to nie jest pokusa ostatniego roku. ELIZA, czyli pierwszy bot, który symuluje psychoanalityka, powstał w 1966 r. Pomysł był prosty: bot przekształca zdanie użytkownika na pytanie. W taki sposób podtrzymywał konwersacje, które wymagały introspekcji. Dzisiejsze aplikacja są nie tylko bardziej zaawansowane, ale mają też lepszy marketing: kreują złudzenie towarzysza, partnera czy partnerki. To prosta reakcja rynku na to, czego doświadczamy, czyli na samotność, alienację, potrzebę bycia zobaczonym. I to wszystko bez ryzyka, jakie wiąże się z prawdziwą relacją. Trzeba jednak postawić sobie pytanie, czy i jak to na nas wpływa. Jakie są w tym niebezpieczeństwa, a jakie szanse? O tym Katarzyna Szymielewicz rozmawia z Cvetą Dimitrovą, filozofką i psychoterapeutką z ośrodka „Znaczenia Psychoterapia”. Odsłuchaj, dodaj do ulubionej aplikacji przez RSS lub posłuchaj na Spotify, Apple Music, Google Podcasts lub w aplikacji TOK FM. Wersja wideo dostępna również na YouTubie. Audio file Temat algorytmy Poprzedni Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Teraz każdy może przeczytać algorytm Twittera. I co z tego? Po wielu zapowiedziach Elon Musk udostępnił kod źródłowy m.in. algorytmu rekomendującego treści organiczne – czyli te, które widać w zakładce „dla ciebie” na Twitterze. Większa przejrzystość nie oznacza jeszcze zdrowszego medium ani większej wolności użytkowników i użytkowniczek Twittera. Na to… 13.04.2023 Tekst Podcast Algorytmy Traumy. Jak Facebook karmi się twoim lękiem Zapraszamy na odcinek specjalny, połączony z premierą badania Fundacji Panoptykon „Algorytmy Traumy 2” we współpracy z Piotrem Sapieżyńskim z Northeastern University. 07.12.2023 Dźwięk Podcast Projekt Chat Control ma chronić dzieci, ale zagraża szyfrowanej komunikacji. Rozmowa z Michałem „ryśkiem” Woźniakiem Od kilku lat w internecie krąży obrazek autorstwa Johna Jonika. Przedstawiciel amerykańskiej władzy jest w sklepie. Ma przy sobie przy sobie pudełko, w którym znajduje się „kontrola komunikacji w internecie”. Sprzedawca pyta: „jak zapakować – w antyterroryzm czy ochronę dzieci”? 11.01.2024 Dźwięk