algorytmy

04.11.2021

Nie milknie burza po ujawnieniu przez Frances Haugen dokumentów Facebooka potwierdzających, że w mediach społecznościowych należących do giganta działo się wiele złego – o czym firma wiedziała, ale nic z tym nie zrobiła. Czy europejscy politycy wyciągną wnioski i – zamiast naklejać plasterki na otwartą ranę – zdecydują się na dalej idącą reformę, która zmusi giganta do otwarcia się na rozwiązania wykorzystujące inne modele biznesowe? Wysłuchanie Haugen, które odbędzie się już 8 listopada 2021 r. w Parlamencie Europejskim, to idealna okazja, żeby zobaczyć, jak wiele szkód rodzi niekontrolowana władza platform internetowych, i zastanowić się, jak skutecznie rozwiązać ten problem.

07.10.2021

W odcinku rozmowa z badaczem, który przygotował studium przypadku Algorytmy traumy. Skąd Facebook wiedział, jak żerować na lękach Joanny? Dlaczego użytkowniczka nie mogła zareagować na niechciane treści? O tym wszystkim w Panoptykonie 4.0.

28.09.2021

Gdy dzieci pójdą do szkoły, pandemia się rozkręci – scroll – SPONSOROWANE Najlepsze kursy programowania w mieście! – scroll – Z OSTATNIEJ CHWILI: Stan wyjątkowy na granicy – scroll – SPONSOROWANE Śmiertelna choroba niszczy życie Stasia! Liczy się każdy dzień! – scroll – Aśce urodziło się dziecko – scroll – SPONSOROWANE Psssst… Sprawdź nową ofertę na badanie przesiewowe SMA! – scroll – QUIZ Którym muppetem jesteś? – scroll – PROPONOWANE DLA CIEBIE Pomóż Magdzie w walce z glejakiem

„Przebadaj się, bo nowotwór nie wybiera!” Facebook wie, czego się boimy, i nie zawaha się tego użyć, żeby dobrać treści, które wyświetli ci w newsfeedzie. W przypadku bohaterki, której sprawę wzięliśmy pod lupę w ramach naszego eksperymentu, nie pomylił się: ta wyselekcjonowana przeplatanka reklam zbiórek na leczenie dzieci i propozycji badań w kierunku chorób, które te dzieci dotknęły, idealnie trafia w jej lęk o zdrowie swoje i najbliższych. I codziennie wzmacnia traumę związaną z utratą najbliższej osoby, która zmarła na nowotwór.

24.06.2021

Czy dom to nowy zakład pracy, a pracodawca może podglądać swoich pracowników przez kamerki? Czy dzięki technologii pracodawcy łatwiej inwigilować związki zawodowe? Jakie zagrożenia niesie ze sobą platformizacja pracy? I czy prawo nadąża za zmianami? Z dr. Liwiuszem Laską, prawnikiem specjalizującym się w prawie pracy, rozmawia Wojciech Klicki.

To już ostatni odcinek podcastu przed wakacyjną przerwą. Jeżeli macie zaległości w słuchaniu, zabierzcie Panoptykon 4.0 na letnie wojaże. Wracamy we wrześniu, a teraz zbieramy pomysły na nowy sezon. Macie pomysł na temat lub gościa? Podzielcie się nim w komentarzu lub napiszcie na adres: fundacja@panoptykon.org

30.04.2021

Przepisy wspierające innowacje i chroniące przed nadużyciami – tak miała wyglądać unijna regulacja sztucznej inteligencji. Jednak propozycja przedstawiona przez Komisję Europejską 21 kwietnia nie odpowiada na najważniejsze wyzwania związane z rozwojem AI: nie stawia granic dla najbardziej ryzykownych zastosowań AI, nie umożliwia osobom poszkodowanym przez systemy AI dochodzenia swoich praw, nie rozwiązuje problemu czarnych skrzynek, a zamiast niezależnego nadzoru nad taką technologią proponuje pakiet biurokratycznych wymogów. Do tego wiele potencjalnie niebezpiecznych systemów w ogóle jej się wymyka. Przeanalizowaliśmy rozporządzenie o AI pod kątem postulatów, które sformułowaliśmy w czerwcu ubiegłego roku na początku prac nad regulacją.

20.04.2021

Od 1 grudnia opłaty za autostrady będziemy wnosić za pomocą aplikacji mobilnej powiązanej z systemem poboru opłat Krajowej Administracji Skarbowej. Mają zniknąć korki na bramkach. System e-TOLL ma być prosty, tańszy i wygodny w obsłudze, a do tego ma znajdować się w całości pod kontrolą Krajowej Administracji Skarbowej – a nie, jak dotychczas, prywatnej firmy. Pojawiają się jednak pytania: m.in. o to, jakie dane trafią do KAS, a także o to, czy będzie możliwy przejazd płatną autostradą bez instalowania aplikacji, z której dane o lokalizacji będą płynęły do fiskusa niekoniecznie tylko podczas przejazdu płatną drogą.

25.02.2021

Ile prawdy o człowieku kryje się w korelacjach statystycznych, które pokazują badania Michała Kosińskiego? Czy te same zależności potwierdziłyby się poza przebadaną przez Kosińskiego grupą osób aktywnych na portalach społecznościowych i randkowych, które dobrowolnie ujawniły swoją afiliację polityczną? A może mamy do czynienia z kolejnym “skrzywionym” algorytmem, który nauczył się oceniać orientację polityczną człowieka na podstawie kąta padania światła na zdjęciu profilowym albo ustawień aparatu? Kto i w jakich celach wykorzystuje dziś rozpoznawanie ukrytych celach ludzi na podstawie zdjęcia twarzy? Czy służby specjalnie schylają się po takie rozwiązania, ryzykując błędy w ocenie konkretnych ludzi, popadnięcie w społeczne stereotypy i przepalone budżety? Odpowiedzi na te pytania, i wiele innych, w gorącej dyskusji z Michałem Kosińskim szuka Katarzyna Szymielewicz.

08.12.2020

PKN Orlen poinformował, że przejmuje Polska Press – grupę wydawniczą, do której należy wiele regionalnych dzienników, tygodniki i portale internetowe. Te ostatnie mają 17,4 mln użytkowników, których dane Orlen chce wykorzystać do dalszej rozbudowy swoich narzędzi big data. Transakcja wywołała gorącą dyskusję ze względu na zależność Orlenu (jako spółki Skarbu Państwa) od rządu. Jednak bez względu na to, kto zbiera dane ponad 17 mln użytkowników stron Polski Press, mogą być one wykorzystywane do manipulacji politycznych: w coraz bardziej cyfrowym świecie dane (zwłaszcza te duże) to władza.

29.06.2020

Bez względu na to, czy kibicujemy rozwojowi sztucznej inteligencji i jej obecności „w każdej lodówce”, czy się tego scenariusza obawiamy, jedno możemy przyjąć za pewnik: ta dziedzina wiedzy technicznej, o szerokim zastosowaniu, dopiero się rozkręca i niejednym nas jeszcze zaskoczy. Czekają nas nie tylko kolejne wcielenia „inteligentnych” asystentów i profilowanych usług, ale też coraz szersze wykorzystanie AI do dokonywania wyborów za ludzi lub wspierania ich w obiektywnie trudnych decyzjach: od optymalizacji świadczeń publicznych i zarządzania szpitalami (a nawet planowania indywidualnych programów leczenia) po szacowanie ryzyka (finansowego, powodziowego, epidemiologicznego itd.) i przewidywanie, jak będzie się rozkładać przestępczość na mapach miast lub w ramach konkretnej populacji. Ale bogatsi o doświadczenia ze Stanów Zjednoczonych, gdzie AI w tych wszystkich obszarach już jest obecna, możemy zminimalizować negatywne skutki związane z jej wykorzystaniem – dzięki przygotowaniu odpowiedniej regulacji.

18.06.2020

Technologia rozpoznawania twarzy jest coraz bardziej obecna w naszym życiu. Stykamy się z nią przy odblokowywaniu ekranu smartfona, oznaczaniu znajomych na zdjęciach wrzucanych na Facebooka, czy w aplikacjach, które pozwalają nam nałożyć śmieszne filtry na twarz lub zobaczyć, jak będziemy wyglądali za pięćdziesiąt lat. Coraz częściej rozpoznawanie twarzy jest też używane przez organy ścigania do namierzania osób poszukiwanych, i to również w Europie, na brytyjskich, niemieckich czy serbskich ulicach. Na szczeblu europejskim trwa właśnie dyskusja o wprowadzeniu zakazu masowego rozpoznawania twarzy. Co możemy zyskać, a co stracić, jeżeli w porę nie wprowadzimy przepisów regulujących użycie tej technologii? Zapraszamy na rozmowę z dr Magdaleną Tomaszewską-Michalak, wykładowczynią w Katedrze Bezpieczeństwa Wewnętrznego Wydziału...

Strony