Przejdź do treści
Logo Fundacji Panoptykon
Szukaj

Wspieraj nasWspieraj nas

Główna nawigacja PL

  • Co robimy
    • O co walczymy
    • Na jakie problemy odpowiadamy
    • Jak działamy
    • Sukcesy Panoptykonu
    • Jak szanujemy prywatność
  • Kim jesteśmy
    • Co to jest Panoptykon
    • Ludzie
    • Władze Fundacji
    • Należymy do
    • Dołącz do nas
    • Finanse
  • Publikacje
    • Artykuły
    • Raporty
    • Poradniki
    • Podcasty
    • Wideo
    • Wszystkie publikacje
    Image Budapest Pride, ludzie z tęczowymi flagami
    Artykuł Węgierskie władze będą używać biometrii. Celem marsz równości
    Image zdjęcie ekranu telefonu z ikonami aplikacji
    Artykuł Dementujemy: od 1 lipca 2025 nie trzeba będzie używać apki do weryfikacji wieku na popularnych serwisach
  • Wspieraj nas
    • Sukces
    • Błąd

Języki PL

  • EN
  • Wspieraj nas
  • Co to jest Panoptykon
  • Zamów newsletter PanOptyka
  • Posłuchaj podcastów Panoptykon 4.0

Ścieżka nawigacyjna

  1. Strona główna
  2. Wyszukiwarka
Wyniki wyszukiwania:2
Filtry
Sortowanie
Kategoria
  • Poradnik
Typ treści
  • Tekst
Temat
  • bazy danych
  • bezpieczeństwo
  • dane osobowe
  • dyskryminacja
  • dzieci i młodzież
  • polityka społeczna
  • profilowanie
  • reforma ochrony danych
  • sztuczna inteligencja x
Data
  • Ostatni rok
Autor
  • Anna Obem
  • Katarzyna Szymielewicz
Wyczyść filtry Pokaż wyniki (2)
Wybrane filtry:
  • sztuczna inteligencja x
  • Wyczyść filtry
  • Wszystkie (13)
  • Artykuł (11)
  • Poradnik (2) x
Poradnik

AI Act w działaniu 2. Siri, Alexa i inni smart asystenci

Wirtualny asystent linii lotniczej podał klientowi błędne informacje. Firma próbowała wykręcić się od odpowiedzialności, ale sąd uznał, że powinna zrealizować obietnicę złożoną przez bota funkcjonującego na jej stronie internetowej. Co mówi AI Act o odpowiedzialności za słowa i działania botów? 10.05.2024 Tekst
Grafika przedstawiająca osobę z smart ayastetntem domowym
Poradnik

AI Act w działaniu 3: profilowanie i ocenianie ludzi dzięki sztucznej inteligencji

Profilowanie i ocenianie ludzi pod kątem ich wiarygodności, przydatności, wypłacalności to jedno z bardziej ryzykownych zastosowań sztucznej inteligencji. Co mówi o nim AI Act? 21.06.2024 Tekst
Zdjęcie osób, które są profilowane w czesie rzeczywistym

Walcz o wolność i prywatność

Wspieraj Fundację Panoptykon darowiznami

Wpłacam

logoEN

Menu (stopka) PL

Kampanie
  • SIN vs Facebook
  • Sztuczna inteligencja non-fiction
  • Podsłuch jak się patrzy
  • Cyfrowa Wyprawka
  • Zabawki Wielkiego Brata

Kampanie

  • SIN vs Facebook
  • Sztuczna inteligencja non-fiction
  • Podsłuch jak się patrzy
  • Cyfrowa Wyprawka
  • Zabawki Wielkiego Brata
Materiały
  • Oficjalne stanowiska
  • Wnioski o informację publiczną
  • Newslettery

Materiały

  • Oficjalne stanowiska
  • Wnioski o informację publiczną
  • Newslettery
Dokumenty i regulaminy
  • Statut
  • Polityka prywatności
  • Regulamin strony
  • Zanim przekażesz darowiznę

Dokumenty i regulaminy

  • Statut
  • Polityka prywatności
  • Regulamin strony
  • Zanim przekażesz darowiznę
Kontakt i wsparcie
  • Wspieraj nas
  • Przekaż 1,5% podatku
  • Zamów newsletter
  • Media
  • Kontakt

Kontakt i wsparcie

  • Wspieraj nas
  • Przekaż 1,5% podatku
  • Zamów newsletter
  • Media
  • Kontakt

RSS Mastodon Facebook Twitter LinkedIn Wykop You Tube Instagram

CC BY-SA (chyba że oznaczono inaczej) ∙  [pictograms]

Projekt: Dariusz Palarczyk   Wykonanie: Caltha | Ratioweb