Artykuł Unia szykuje przepisy dotyczące AI: 5 problemów Przepisy wspierające innowacje i chroniące przed nadużyciami – tak miała wyglądać unijna regulacja sztucznej inteligencji. Jednak propozycja przedstawiona przez Komisję Europejską 21 kwietnia nie odpowiada na najważniejsze wyzwania związane z rozwojem AI: nie stawia granic dla najbardziej ryzykownych zastosowań AI, nie umożliwia osobom poszkodowanym przez systemy AI dochodzenia swoich praw, nie rozwiązuje problemu czarnych skrzynek, a zamiast niezależnego nadzoru nad taką technologią proponuje pakiet biurokratycznych wymogów. Do tego wiele potencjalnie niebezpiecznych systemów w ogóle jej się wymyka. Przeanalizowaliśmy rozporządzenie o AI pod kątem postulatów, które sformułowaliśmy w czerwcu ubiegłego roku na początku prac nad regulacją. 30.04.2021 Tekst
Artykuł O co walczymy w unijnej regulacji AI? 5 postulatów Zamiast realnego zewnętrznego nadzoru nad potencjalnie szkodliwym wykorzystaniem sztucznej inteligencji i narzędzi przejrzystości i kontroli dla ludzi poddanych ich działaniu checklista „do odhaczenia” – to najpoważniejsze zarzuty wobec zaprezentowanego w kwietniu przez Komisję Europejską projektu przepisów mających uregulować tę sferę technologiczną. Organizacje społeczne domagają się zmian w akcie o sztucznej inteligencji (AI Act), – które faktycznie postawią ludzi i ich prawa w centrum. Pod wspólnym stanowiskiem, które stworzyliśmy z naszą europejską siecią European Digital Rights, podpisało się 115 organizacji z całej Unii Europejskiej. 01.12.2021 Tekst
Raport Na zapleczu Internetu Reklama to nadal główne źródło finansowania portali internetowych. Według najnowszych szacunków na świecie wydawane jest na nią ponad 200 mld dolarów, w tym ponad 4 mld zł w Polsce. Tymczasem w naszym kraju 42% użytkowników blokuje reklamy, bo po prostu nie chce ich oglądać. W obliczu coraz częstszego wykorzystywania targetowanych reklam w kampaniach politycznych dochodzą – bardzo uzasadnione – obawy o głębokość śledzenia i manipulowanie emocjami. 28.01.2019 Tekst
Artykuł Krajowa Administracja Skarbowa mniej kontrolowana niż ABW i Policja. Apel do Ministra Finansów Dzisiaj Krajowa Administracja Skarbowa – w przeciwieństwie do Policji czy Agencji Bezpieczeństwa Wewnętrznego – nie musi informować sądu, jakiego narzędzia do inwigilacji chce użyć. Wprowadzenie tego obowiązku pozwoliłoby uniknąć nadużywania mechanizmów takich jak Pegasus. 08.09.2025 Tekst
Artykuł Ryzykowne algorytmy do typowania nadużyć. CNAF a polskie realia Francuska Narodowa Kasa Świadczeń Rodzinnych używa algorytmu wykorzystującego dyskryminujące kryteria do typowania do kontroli osób, które mogą nadużywać prawa do świadczeń społecznych. 20.01.2026 Tekst