Walka z nieprzejrzystymi praktykami firm z branży reklamy interaktywnej toczy się nie tylko w Polsce, gdzie zapoczątkowały ją nasze skargi na Google’a i IAB – nieformalnych regulatorów rynku. Analogiczne skargi trafiły łącznie aż do 14 innych organów ochrony danych, m.in. w Irlandii, Niemczech, Francji, Wielkiej Brytanii, Hiszpanii czy Holandii.
Po dzisiejszym posiedzeniu połączonych komisji sejmowych mamy dobre wiadomości: udało się przekonać rząd i posłów do wprowadzenia zmian w prawie bankowym, które zmienią proces przyznawania kredytów. W miejsce „czarnej skrzynki”, która wypluwa niezrozumiałe decyzje bez uzasadnienia, ma się pojawić przejrzysta procedura, wzmacniająca prawa osób ubiegających się o kredyt. To duży przełom w relacjach bank–klient i odpowiedź ustawodawcy na postulaty, które zgłaszamy od dawna.
Wiek, płeć, miejsce zamieszkania, model urządzenia i system operacyjny, język i lokalizacja, wyszukiwane słowa i odwiedzane strony – kiedy użytkownik czeka na załadowanie strony internetowej, dane o nim płyną szerokim strumieniem do dziesiątek, jeśli nie setek, firm biorących udział w licytacji, której zwycięzca zapłaci 1/5 grosza za możliwość wyświetlenia swojej reklamy. Użytkownik nie ma w tym systemie ani głosu, ani praw. Nie wie, do kogo trafiają jego dane ani jakie wnioski są z nich wyciągane. Fundacja Panoptykon domaga się zmiany tego stanu rzeczy i występuje do Prezesa Urzędu Ochrony Danych Osobowych ze skargą przeciwko IAB i Google – nieformalnym regulatorom rynku reklamy interaktywnej.
Sejm pracuje nad pakietem zmian w ponad 100 ustawach, które są potrzebne do pełnego wdrożenia RODO. Jedną z tych ustaw jest prawo bankowe. Pomóż nam zawalczyć o lepsze prawo do wyjaśnienia!
Jaki jest bankowy przepis na wiarygodnego klienta? Co wiemy o typach i stereotypach zaszytych w modelach scoringowych? Czy rzeczywiście niosą ze sobą ryzyko dyskryminacji? Skoro matematyka i statystyka mają coraz większy wpływ na nasze życiowe decyzje – na to, czy kupimy własne mieszkanie albo sfinansujemy pilną operację – lepiej, żeby się nie myliły. W tym tekście rzucamy trochę światła na modele scoringowe: na to, co o nich wiemy, czego nie wiemy i co powinno nas niepokoić.
Według Instytutu Reutersa, działającego przy Uniwersytecie Oksfordzkim, Polska jest jedynym z siedmiu badanych krajów, w którym po wejściu w życie RODO wzrosła liczba ciasteczek serwowanych przez strony trzecie na portalach informacyjnych.
Stan cywilny, profil zawodowy, płeć, a nawet to, czy częściej kupujemy alkohol w niedzielę rano, czy w piątek wieczorem, może mieć wpływ na naszą wiarygodność w oczach banków. Co to jest i jak działa scoring (ocena punktowa)? Dlaczego nie możemy się dowiedzieć, co wpływa na jego wynik? Wyjaśniamy, jak banki interpretują przepisy RODO, oceniając wiarygodność i zdolność kredytową swoich klientów, i proponujemy rozwiązania, które rzuciłyby nieco więcej światła na ten proces. Ponieważ trwają jeszcze prace nad dostosowaniem prawa bankowego do RODO, jest szansa na ich wprowadzenie.
Pod wpływem lobbingu branży reklamowej w ostatniej wersji rozporządzenia ePrivacy pojawił się przepis, który legalizuje ciasteczka i skrypty śledzące dla tych usług, które utrzymują się z reklam. Za tą zmianą kryje się prosta logika: zamiast pytać użytkowników o zgodę (która i tak w wielu przypadkach okazuje się fikcją), uznajmy, że śledzenie jest niezbędne do świadczenia usługi, i już. Jeśli ta propozycja utrzyma się w dalszych negocjacjach – a te zależą m.in. od stanowiska polskiego rządu – będziemy mieli już tylko jedno wyjście chroniące prywatność: nie korzystać z komercyjnego Internetu.
Google nie ukrywa, że chce działać w oparciu o ciągłe śledzenie i personalizowanie naszego doświadczenia, bo w tym widzi swoją innowacyjność i źródło zysku.
Technologie oparte na danych nie są neutralne. Decyzje o zbieraniu, analizowaniu i przetwarzaniu konkretnych kategorii informacji są dyktowane czynnikami społecznymi, ekonomicznymi i politycznymi. Takie operacje z wykorzystaniem danych osobowych mogą nie tylko naruszać prywatność, ale też prowadzić do dyskryminacji i pogłębienia wykluczenia już marginalizowanych społeczności. Dyskryminacja, do której prowadzi przetwarzanie danych i wykorzystanie algorytmów, to ogromne wyzwanie dla obrońców praw człowieka, a odpowiedź na nie nie jest oczywista. Raport pt. Between Anti-discrimination and Data (Między przeciwdziałaniem dyskryminacji a danymi) próbuje rzucić na problem nieco światła z perspektywy europejskich organizacji społecznych.