Artykuł Nauczka Ubera. Za korzystaniem z AI musi iść odpowiedzialność Człowiek nie sprawdzi się w roli nadzorcy sztucznej inteligencji, jeśli ma przejmować stery wyłącznie w sytuacjach awaryjnych. 09.11.2020 Tekst
Artykuł Francuzi karzą Google′a. Co z tego wynika dla polskich firm? Decyzja CNIL zapadła w siedem miesięcy od złożenia skargi przez dwie organizacje, które symbolicznie zakwestionowały standard ochrony danych w usługach Google już pierwszego dnia obowiązywania RODO. 11.02.2019 Tekst
Poradnik Zapraszamy do Fediwersu! Jedną z trudniejszych decyzji, które organizacja skupiająca się na prawach cyfrowych i prywatności musi podjąć, dotyczy tego, czy (i jak) korzystać z komercyjnych platform społecznościowych. Z jednej strony Facebook, Twitter, Instagram i TikTok żerują na użytkowniczkach i użytkownikach. Z drugiej – możliwość dotarcia do potencjalnych odbiorców tam, gdzie już są, jest ważna i cenna. Na pewno warto wspierać alternatywę. Namawiałem więc Panoptykon do tego, by dołączył do sieci społecznościowej, która nas nie eksploatuje. Dziś Fundacja jest już jej częścią. Zapraszamy do Fediwersu! 24.03.2023 Tekst
Artykuł Ustawa o wolności słowa? Raczej ustawa inwigilacyjna 2.0! Zamiast obiecywanej wolności słowa w Internecie ogłoszony z hukiem projekt ustawy ministra Ziobry wprowadza inwigilację i cenzurę. Zamiast ograniczać władzę platform internetowych i umożliwiać Polkom i Polakom swobodne wyrażanie poglądów w sieci – przyznaje nowe możliwości służbom, które będą mogły na masową skalę sprawdzać, co robimy on-line, i proponuje ochronę tylko wybranych poglądów oraz grup, które dziś czują się dyskryminowane na Facebooku lub YouTubie. Wyjaśniamy, co znalazło się w projekcie i dlaczego nazywamy go ustawą inwigilacyjną 2.0. 04.02.2021 Tekst
Artykuł Unia szykuje przepisy dotyczące AI: 5 problemów Przepisy wspierające innowacje i chroniące przed nadużyciami – tak miała wyglądać unijna regulacja sztucznej inteligencji. Jednak propozycja przedstawiona przez Komisję Europejską 21 kwietnia nie odpowiada na najważniejsze wyzwania związane z rozwojem AI: nie stawia granic dla najbardziej ryzykownych zastosowań AI, nie umożliwia osobom poszkodowanym przez systemy AI dochodzenia swoich praw, nie rozwiązuje problemu czarnych skrzynek, a zamiast niezależnego nadzoru nad taką technologią proponuje pakiet biurokratycznych wymogów. Do tego wiele potencjalnie niebezpiecznych systemów w ogóle jej się wymyka. Przeanalizowaliśmy rozporządzenie o AI pod kątem postulatów, które sformułowaliśmy w czerwcu ubiegłego roku na początku prac nad regulacją. 30.04.2021 Tekst