Artykuł 18.05.2018 22 min. czytania Tekst Image Do dnia zero – 25 maja – zostało tylko kilka dni. To wtedy zacznie w pełni obowiązywać RODO (rozporządzenie o ochronie danych osobowych), które – w niektórych kręgach – ma wyjątkowo złą prasę. Czy słusznie? Zapraszamy na rozmowę Katarzyny Szymielewicz z Fundacji Panoptykon z Aleksandrą Przegalińską – doktor filozofii, specjalistką w dziedzinie sztucznej inteligencji, wykładowczynią w Akademii Leona Koźmińskiego i w Massachusetts Institute of Technology (MIT). Za nagranie serdecznie dziękujemy ojcu polskich podcasterów, Borysowi Kozielskiemu. Nasz pierwszy podcast można odsłuchać w Radio Wolna Kultura lub obejrzeć na naszym kanale na vimeo. W związku z tym, że to pierwsze doświadczenie Panoptykonu z taką formą, bardzo zależy nam na Waszym odzewie. Jeżeli będzie pozytywny, będziemy myśleć o nagrywaniu kolejnych odcinków. Najnowszy odcinek podcastu znajdziesz na naszej stronie, na YouTubie, Vimeo lub na portalu TOK FM (tam znajdziesz też automatyczną transkrypcję). Podcast możesz również zasubskrybować za pośrednictwem kanału RSS Panoptykon 4.0. Transkrypcja Prowadząca: Katarzyna Szymielewicz Gość: Aleksandra Przegalińska Transkrypcja: Mateusz Pigoń, Michał Kosakowski KS: Katarzyna Szymielewicz, Fundacja Panoptykon, i Aleksandra Przegalińska, MIT, Akademia Leona Koźmińskiego – dzisiaj w studiu. AP: Dzień dobry. KS: Rozmawiamy o technologii i o prawie. AP: Owszem. KS: To dwie rzeczy, które nas spotykają. Czasu mamy niewiele, a temat ogromny. Chcemy porozmawiać o tym, co frapuje bardzo wiele osób. Nie tylko naukowców – tak jak Ty; nie tylko prawników – tak jak ja, ale też ludzi biznesu, obywateli. Idzie RODO. 25 maja będzie w pełni stosowane nowe europejskie prawo o ochronie danych osobowych. Pojawiały się w związku z tym najrozmaitsze mity, obawy, pomysły, jak to będzie działać. Pomyślałyśmy obie, że dobrze byłoby zderzyć perspektywy naszych światów na ten temat – po to, aby pewne rzeczy sobie lepiej wyjaśnić, na pewne wątpliwości odpowiedzieć. Tak naprawdę jestem ciekawa, jak w waszym świecie – akademickim, naukowców, ludzi od big data – jest profilowane RODO? Co wy o nim słyszycie i co mówicie? AP: Ja mam perspektywę transatlantycką, dlatego że z jednej strony przyglądam się temu, co dzieje się w Polsce: temu, jak tutaj RODO jest odbierane, jak funkcjonuje w kręgach akademickich czy w kręgach moich studentów, którzy są żywotnie zainteresowani tym tematem (zwłaszcza start-upowcy bardzo się martwią, bo głównie jest to nuta zmartwienia); ale z drugiej strony, w związku z tym, że sporo czasu spędzam w Stanach, miałam okazję obserwować, co tam się dzieje. Na samym początku chciałam powiedzieć, że RODO jest chyba celebrytą wśród rozporządzeń. Nigdy nie widziałam, żeby jakakolwiek ustawa czy inna regulacja miała wszędzie tak dużo reklamy. KS: I swój brand. AP: Swój brand. W Stanach na stacjach metra są ustawione banery z pytaniem: „Czy wiesz, czym jest GDPR?”, czyli RODO. KS: Czy jesteś gotowy? AP: Czy jesteś gotowy. Jakby to było wejście smoka albo nowego serialu na Netfliksie! Rzeczywiście coś niesamowitego. W związku z tym jest to jeszcze bardziej dyskutowana sprawa. Mam wrażenie, że w kręgach akademickich z jednej strony odbiór jest taki: „Nareszcie!” – nareszcie jest coś, o czym można naprawdę poważnie porozmawiać, a ponadto po wszystkich skandalach, które dotyczyły wycieków danych, nareszcie jest jakaś odpowiedź. Czy ona jest dobra, czy zła, pewnie dopiero się przekonamy. Ale z drugiej strony, właśnie w tych kręgach wokół sztucznej inteligencji czy uczenia maszynowego jest też pewnego rodzaju lęk. Wynika on z tego, że stosowanie tej ustawy może doprowadzić do tego, że ta dziedzina przestanie być funkcjonująca, a stanie się kompletnie dysfunkcyjna. Jeśli danych będzie za mało, to modele, które zostały stworzone (a niektóre wymagały wielu lat pracy), zaczną się kompletnie wykoślawiać i staną się złym wskaźnikiem czegokolwiek. Może nie jest to perspektywa, którą dzielę, ale staram się wsłuchiwać w te głosy. Warto zwrócić uwagę na to, co środowisko skupione wokół AI, sztucznej inteligencji, ma do powiedzenia. KS: Ciekawe! Chciałabym w takim razie zacząć od przypomnienia, o co chodziło. Chodziło, dalej chodzi, o prawo, które nie jest rewolucją – wbrew temu, jak to jest portretowane, szczególnie w Stanach – tylko pewną ewolucją standardu, który w Polsce i w Europie obowiązuje od ponad 20 lat. Jest to dość uleżałe prawo. Nowe reguły tak naprawdę nie będą inne. W tych regułach w ogóle nie ma pomysłu, że dane są teraz zakazane, że nie można ich dotykać, nie można nic z nimi robić, a już szczególnie, że nie mogą tego robić naukowcy. Myślę, że w świecie nauki będziecie mieli na pewno o wiele prościej niż w świecie biznesu, ponieważ cel, w jakim pozyskujecie dane o ludziach, i to, co z nimi robicie, jest z gruntu inny. AP: Tylko pamiętaj, że akurat uczelnie w Stanach bardzo często żyją z grantów prywatnych. To jest kompletnie inny model funkcjonowania. Bardzo często pracownik dowolnej uczelni, nawet Ivy League, Ligi Bluszczowej, najlepszej, jest zaangażowany głównie w partnerstwa publiczno-prywatne, czyli w jakieś przedsięwzięcia, które finansuje firma typu Samsung, Philips czy dowolna inna duża firma. Zwłaszcza jeśli chodzi o uniwersytety technologiczne, politechniki. Myślę, że dla nich rozdział między biznesem a tym, co sami robią, wcale nie jest aż taki prosty. KS: Toteż nie chodzi tutaj o sektor, bardziej o cel, w jakim dane są pobierane, o to, co się z nimi będzie dalej działo i kto ma kontrolę. RODO stoi na stanowisku – moim zdaniem dość dobrym – że to ten, kto bierze dane o ludziach, musi przemyśleć konsekwencje swojego działania. Musi przemyśleć, w jakim celu to robi i na jakiej podstawie. Nie mamy prostej ramy, identycznej dla każdego: że to jest jakieś pięć kroków albo że masz taką fiszkę, taki dokument, taką politykę prywatności, a nie inną. Czy to jest uczelnia, czy to jest potężna firma, czy to jest bardzo mały start-up, czy to jest osoba fizyczna, która prowadzi jakąś swoją działalność i ma w związku z tym dane – każdy musi przejść podobny proces. Przy czym będzie on tym bardziej skomplikowany, im bardziej złożona jest dana działalność. Tutaj wchodzi w grę pewna mądra elastyczność tego rozporządzenia, z której wynika, że w pewnym sensie masz tym więcej obowiązków, im większe ryzyko podejmujesz i im bardziej złożone są operacje, jakie prowadzisz na danych. Myślę, że jest to podejście dosyć fair. Dane to materia ryzykowna, materia, która dotyczy człowieka i może wywołać szkodę w jego życiu. I to jest jasne. Nie możemy ich sobie tak po prostu wziąć. I pewnie to jest dla Amerykanów ogromny przeskok, bo wiele firm, szczególnie amerykańskich, przyzwyczaiło się do tego, że dane są trochę jak piasek albo jak powietrze – są, to są, przetwarzamy je. AP: Musisz pamiętać, że w Stanach jest jeszcze jedna rzecz, o której warto rozmawiać. Oczywiście RODO jest skupione na Europie i wynika z europejskich wartości, ale też z regulacji w zakresie ochrony danych, które były wcześniej. I to nie jest, jak sama mówisz, żadna rewolucja. Natomiast dla Amerykanów jest to o tyle rewolucja, że w Stanach zawsze preferowana jest samoregulacja nad regulacją. Gdzie byś nie poszła, kogokolwiek byś nie posłuchała, to tak jest. Fanów jakichkolwiek regulacji jest znacznie mniej. W związku z tym oni reagują na to, uderzając w bardzo alarmistyczny ton: że coś się bardzo mocno zmienia. Pamiętaj też, że to kraj, w którym Mark Zuckerberg jeszcze niedawno stał przed Senatem i musiał się tłumaczyć z różnych afer. KS: I to był chyba właśnie moment bardzo ważny dla Amerykanów, żeby zrozumieć ograniczenia samoregulacji. Pamiętają wszyscy, którzy widzieli to przesłuchanie lub słuchali czy czytali omówienia… AP: Zielonego Marka. KS: Zielony Mark nie pamiętał nawet dokładnie szczegółów postępowania Facebooka przed FTC (Federalną Komisją Handlu), która jest organem bardzo realnie ingerującym w to, co robią firmy, i która dawała Facebookowi konkretne alternatywy. Ale to nie było dla nich istotne, bo nie było w tym kary. Niestety. Mówię to z przykrością, bo naprawdę wolałabym, żeby świat działał inaczej i żeby firmy bardziej odpowiedzialnie podchodziły do tego, jak działają, i nie czekały, aż ktoś przyjdzie z młotkiem i je do czegoś zmusi. Przykład Zuckerberga i Facebooka pokazuje, że dopóki – chyba szczególnie w Ameryce – coś się nie kalkuluje dla inwestorów i nie wpływa na wartość akcji, dopóty zarząd traktuje taką regulację czy samoregulację na zasadzie: „Jest, to OK, ale w zasadzie idziemy dalej, robimy swoje”. Więc teraz nie robimy swojego, nie idziemy dalej, bo rzeczywiście wraz z RODO pojawiają się bardzo konkretne sankcje, które mogą być straszakiem nawet dla dużych firm. Mówimy o 4% ich obrotu globalnego. AP: Dotkliwe są niewątpliwie. KS: Taka kara może wynosić do 20 milionów euro. Oczywiście, to nie jest obawa małego przedsiębiorcy, jego nigdy taka kara nie dotknie. Filozofia regulacyjna RODO jest taka, że zanim zostanie wymierzona kara, to badamy sprawę. Organ, który się jej przygląda, bierze pod uwagę, jakie było zaniedbanie, jaki był poziom winy. Czy na przykład przedsiębiorca zrobił wszystko tak, jak najlepiej potrafił (i to w zasadzie powinno go zwalniać z ryzyka kary); czy też po prostu zignorował ryzyko, bo skalkulował, że jest ono za mało finansowo dotkliwe. Dlatego nie obawiałabym się o to, że te kary realnie będą dużym problemem. Myślę, że to, co nas czeka teraz, to pewna zmiana modeli biznesowych, ale głównie tych firm, które opierały się na eksploatacji danych. Może wróćmy zatem do tego, czego – jak rozumiem – trochę obawiają się naukowcy zajmujący się big data i sztuczną inteligencją, czyli profilowaniem. Czy dobrze rozumiem, że to jest jedna z obaw? AP: To nie jest moja własna obawa. Ja jestem raczej entuzjastką tej regulacji, chociaż oczywiście trochę się też obawiam. Obawiam się chaosu, fabrykowania fikcji jakichś rzekomych certyfikatów… I straszenia przedsiębiorców. Widzę, nawet po swoich studentach, że oni jako właściciele małych firm przede wszystkim się boją. Nie czują się doinformowani, czują się zagubieni. Gdybym miała się pobawić w adwokata diabła, to bym powiedziała tak: i sztuczna inteligencja jako dyscyplina badawcza, i media społecznościowe, i ich modele biznesowe – to wszystko żyje z danych i z profilowania. W zasadzie to jest core biznesu, ale też źródło tego, jak można posuwać moją dyscyplinę badawczą naprzód – trenować maszynę i robić dobre uczenie maszynowe coraz mniej nadzorowane przez człowieka. Nasza intencja jest taka, żeby było tak przynajmniej w przypadku wąsko specjalizowanej sztucznej inteligencji, czyli żeby dostawała ona coraz więcej danych i żeby się uczyła, była przydatna w diagnostyce medycznej i w wielu innych obszarach. Ona tych danych potrzebuje bardzo dużo. Oczywiście, stoję na stanowisku, że powinny być one zanonimizowane, całkowicie bezpieczne, a jeśli są to dane wrażliwe, to tym bardziej powinno się na nie uważać. Zdaję sobie również sprawę z tego, że mały dostęp do tych danych – w sytuacji, w której wbrew samemu RODO powstanie blokada po stronie różnych grup interesu – może doprowadzić do przestoju w naszej dziedzinie. Prawdę mówiąc, sama się tego aż tak strasznie nie boję, natomiast słyszę głosy, że istnieje taki lęk. Na przykład firmy takie jak Facebook boją się tego, o czym mówiła Sheryl Sandberg: „Dane to nasz krwiobieg, jak my mamy żyć? Zaczniemy was charge’ować, będziecie płacić za to, żeby u nas być. Będziecie płacić za opt-out z tej wymiany danych”. Mój szef z MIT powiedział: „Aha, jeśli 30% osób zdecyduje się na takie rozwiązanie, to wszystkie modele, które miałem, oparte o dane z Twittera czy Facebooka [głównie modele analityki predykcyjnej, które z tych dwóch mediów społecznościowych korzystały] siadają”. Czyli cała data science wokół inteligencji roju, którą do tej pory wypracowałam, musi zostać przewartościowana. Trzeba kompletnie zmienić te modele. Jeśli tak się stanie, wypadnie bardzo duża grupa reprezentatywna. KS: Wróćmy do początku, konkretny casus. Jest naukowiec, który chce zrobić badanie. Na jakiej podstawie dostajecie zwykle te dane? Co jest tą podstawą? Człowiek się na to zgadza? Dostajecie je od firmy, tj. Facebooka? AP: Istnieje bardzo dużo możliwości. My raczej danych nie kupujemy, korzystamy tylko z tych, które są zadeklarowane jako publicznie dostępne. KS: To świetnie! AP: Natomiast jest tak tylko w przypadku części badań. Jeśli mój zespół wytwarza modele do analizy tych danych i korzystamy przy tym z pracy jakiejś firmy, to podpisujemy z nią umowę i wówczas pakiety danych już są ich. To oni muszą wykazać się dbałością, żeby dane były odpowiednio zagregowane. Ale siłą rzeczy, jeśli oni się nie wykażą, to my, podpisując taką umowę, będziemy współodpowiedzialni. KS: Z perspektywy prawnika mamy tutaj kilka prostych ucieczek. Jeżeli rzeczywiście bierzecie dane, które są publicznie dostępne, czyli w przypadku których to człowiek podjął decyzję o publikacji, większość ograniczeń w zasadzie nie obowiązuje. Te dane można w ten sposób wykorzystywać. AP: Tylko co to będą za dane… Na razie był taki paradygmat default is social, czyli przede wszystkim dane publiczne. Instagram, Facebook i Twitter do pewnego stopnia, i LinkedIn zakładały, że twoje dane są publiczne i to ty decydujesz się na to, żeby je schować. KS: Jasne, i to się zapewne zmieni, bo zgodnie z RODO rzeczywiście default, czyli ta reguła domyślna w każdym serwisie, z którego korzysta człowiek, powinna być taka, żeby go maksymalnie chronić. AP: Właśnie. KS: Czyli nie mamy takiej sytuacji – tu na pewno będzie zmiana – że przychodzi klient do Twittera, Facebooka czy Instagrama i budzi się po roku, orientując się, że oto wszystko, co robił, było publiczne. Nie, użytkownik będzie musiał to wybrać świadomie. Zapewne będzie też musiał być poinformowany przez portal, że on takie dane wystawia do badań. AP: I że jest profilowany. Przecież ma być tag, który będzie o tym dokładnie informował. KS: Dobrze, profilowanie. Profilowanie według RODO to taka hybrydowa, dziwna konstrukcja, bo używana w różnych znaczeniach. Profilowanie potoczne – tak jak my to rozumiemy, tj. że maszyna, system, algorytm próbuje ustalić jakąś cechę człowieka – to na gruncie RODO po prostu zwykła operacja na danych. To nie jest coś niezwykłego, obwarowanego dodatkowymi zastrzeżeniami, tylko normalna operacja na danych. Jeżeli na przykład firma, która robi marketing w Internecie, próbuje ustalić, jaką mam płeć albo wiek, poziom zarobków, bo jest to jej potrzebne do reklamy, to ona mnie profiluje, odgaduje mnie. Jak rozumiem, chodzi o to, że naukowiec, biorąc dane bardzo wielu ludzi, tworzy pewne korelacje statystyczne: osoba, która ma cechy takie, to pewnie ma też cechy takie. AP: Do tego to się głównie sprowadza, do przyporządkowania cię do jakiejś community albo do jakiejś kategorii. KS: Taka operacja nie różni się od jakiejkolwiek innej operacji na danych. Tutaj potrzebujecie po prostu wykazać, że możecie to zrobić, to znaczy, że macie albo podstawę prawną, bo istnieje ustawa, z której wynika, że to, co robicie, jest legalne; że macie na to zgodę albo że to, co robicie, jest niezbędne do realizacji czegoś, czego ten człowiek od was oczekuje. Jeżeli to jest firma, to najczęściej korzysta z tej podstawy. Mówi: „Biorę te dane, bo bez nich nie mogę świadczyć swojej usługi”. Koniec tematu. AP: Tak, ale to jest obszar, przyznaj sama, trudny. To tłumaczenie się. Każda z tych firm może się powołać na takie tłumaczenie. KS: Nie, nie każda. Ono musi być sensowne. Ono musi wytrzymać test logiczny i test ewentualnie w sądzie. Jeżeli jestem Facebookiem (wielokrotnie użyliśmy już tego przykładu, więc może się go przez chwilę trzymajmy) i mówię, że chcę mieć lokalizację, bo tak, albo że chcę mieć twoją płeć, bo chcę ją poznać, albo że chcę poznać twoje poglądy polityczne – to chcę za dużo. Ewidentne jest dla mnie, że żeby „być Facebookiem”, czyli żeby realizować core tego biznesu, nie potrzebuję tych danych. Potrzebuję pewnie adresu IP, jakiegoś maila, jakichś danych dotyczących na przykład mojego urządzenia, mojej przeglądarki, ale ta nadwyżka, to, co człowiek sam mi przekazuje, musi być dobrowolna. Ona nie jest niezbędna, żeby świadczyć usługę. Z naukowcem będzie podobnie. Jeżeli cel badawczy jest w interesie człowieka, taka też jest podstawa prawna – realizacja czegoś, co jest w interesie osoby, której dane bierzemy. Często są badania medyczne, mamy na to w RODO dość szeroki wyjątek. Jeżeli naukowiec potrafi wykazać, że to, co robi, służy społeczeństwu, służy też nawet konkretnej osobie, może to robić. Albo, jak powiedziałaś, anonimizowanie danych. Dane zanonimizowane nie są osobowe. Nie podlegają tym wszystkim obwarowaniom! Można je przetwarzać bez względu na to, co jest w RODO. One przestają w ogóle być w tej ramie prawnej. Wychodzą poza nią, bo nie są danymi osobowymi. To chyba najprostsza rzecz dla naukowca, żeby uciec do przodu. Jeśli chodzi o profilowanie prawne, ono też może oznaczać coś innego. Może oznaczać podjęcie decyzji dotyczącej człowieka. Mamy profilowanie potoczne: ustalenie charakterystyki, przewidywanie, kim jesteśmy, kim będziemy jutro. I mamy podejmowanie decyzji w oparciu o profil, tak jak scoring w banku. Według mnie facebookowy news feed jest taką decyzją. Facebook mnie profiluje, do pewnego momentu się mnie uczy, po czym mówi: „Aha! Dla ciebie taka reklama. Dla ciebie taki news. Dla ciebie taka wizja świata”. To już jest jakaś decyzja… AP: Tylko to nie jest decyzja człowieka. Mamy co do tego jasność. KS: To decyzja algorytmu. Właśnie o to chodzi – jeżeli decyzja jest automatyczna, to wtedy RODO wkracza z wyższym poziomem troski o człowieka i mówi: „Jeśli w oparciu o twój profil coś podejmuje decyzje, to mamy większy problem”. Wtedy potrzebujemy interwencji człowieka, potrzebujemy prawa do wyjaśnienia tej decyzji, potrzebujemy dodatkowych obwarowań. Wkraczają one jednak dopiero tam, gdzie jest decyzja, która ma istotne skutki, i gdzie jest automat – np. właśnie decyzja o kredycie albo o zatrudnieniu człowieka. Mam wrażenie, że chyba tutaj właśnie spotykamy się w naszej filozofii i wartościach. Badania, rozwój sztucznej inteligencji, rozwój uczenia maszynowego – wszystko świetnie. Ale kiedy wkraczamy w moment, kiedy maszyna decyduje o człowieku, to tu jesteśmy na delikatnym gruncie wartości, etyki. Tutaj potrzebne jest prawo. Tu najbardziej RODO reguluje. AP: Tak, oczywiście, nawet zostawiając na boku rozmaite zmartwienia. Uważam, że dotychczasowe modele się wykrzaczą i czeka nas trudna praca, ale to jest do zrobienia. Jednoznacznie stoję na stanowisku, że w tej sprawie trzeba coś zrobić. Uczenia maszynowego jest coraz więcej. Dosłownie wczoraj Google pokazał nowego asystenta opartego na głębokim uczeniu maszynowym, który w zasadzie jest nieodróżnialny od człowieka, kiedy dzwoni. To nie do wiary. KS: Nie uwierzę, dopóki nie włożę mu ręki w bok! AP: Polecam ci przesłuchanie tego, bo uważam, że wczoraj skończył się test Turinga jako metoda pracy w sztucznej inteligencji. Nie chodzi tu jednak tylko o jakichś asystentów, ale przede wszystkim o systemy podejmujące decyzje albo systemy wspomagania decyzji, których mamy w sztucznej inteligencji w tej chwili bardzo dużo i które wykonują bardzo ciężką pracę za człowieka; pracę, której bardzo często człowiek nie jest w stanie wykonać, ponieważ jego inteligencja obliczeniowa jest na to za krótka. Nie mamy takich zdolności: my mamy inne, maszyna ma inne – a do przetwarzania takich ogromnych wolumenów danych jej zdolności nadają się dużo lepiej. Jeśli jednak mamy do czynienia z klasycznym uczeniem maszynowym, to jesteśmy w stanie dojść do źródła decyzji, czyli mamy też pewnie coś, co byście nazwali instancją odwoławczą. Wiem, co się stało, i mogę spróbować w tej sprawie interweniować. Jeśli nie podoba mi się decyzja, która została podjęta, znam podstawę tej decyzji i – co więcej – mogę później się od niej odwoływać. KS: Dokładnie o to chodzi w RODO. AP: W tym przypadku mamy to zaciemnione. Uczenie maszynowe na tym etapie swojego rozwoju jest dziedziną, w której nawet inżynier, który wypuścił dany model czy dokonał w nim jakichś zmian, kiedy widzi output, czyli to, co system wypluł z siebie jako rezultat… KS: …nie rozumie, jak do tego doszło? AP: Nie jest w stanie do końca zobaczyć, co się na tych warstwach sieci neuronowych działo. Tak było zresztą już od dawna, tylko tych warstw sieci było znacznie mniej. Te nowe warstwy to jest coś, co od niedawna nam przyrosło. Głębokie uczenie maszynowe, czyli ta nowa metodologia, to jest coś, co jest najbardziej zaciemnione i co w jakimś stopniu przypomina też ludzki mózg. My też trochę nie wiemy, jak on działa: stosujemy go z powodzeniem, w większości przypadków – ale nie wiemy, jak on działa. Tylko że tu mamy sytuację, w której jeśli takie systemy głębokiego uczenia maszynowego mają o czymś decydować, to rzeczywiście nie mamy się do czego odwoływać, bo możemy nie wiedzieć, co się stało – to jest black box. KS: I to jest największe wyzwanie, i to tak naprawdę jest coś, o czym pewnie porozmawiamy jeszcze nie raz, bo mnie ten temat fascynuje. Myślę, że jest też najciekawszy rozwojowo, jeśli chodzi o działanie RODO w praktyce. Jak przełożyć tę regułę, która mówi: jeśli jest decyzja, którą podjęła maszyna, decyzja istotna w skutkach [masz prawo jej nie podlegać]? Nie mówimy o jakiejś błahostce. Prawdopodobnie zwykła reklama nie będzie taką decyzją – ale już decyzja w banku, decyzja być może nawet sędziego, bo są eksperymenty… AP: Chiński system scoringu: nie wchodzisz na pokład samolotu, dlatego że masz dwa zalegające mandaty – ale przynajmniej wiesz dlaczego. KS: Tak, to reguluje algorytm, a nie człowiek. Właśnie, teraz mamy takie decyzje: coraz poważniejsze, coraz głębiej ingerujące w ludzkie życie – i mamy algorytm, tak jak opisałaś, „niewyjaśnialny” względem logiki swojego działania. Mamy jakiś input, mamy jakiś output. Mamy dane osobowe na wejściu, mamy decyzje na wyjściu. To, czego RODO na pewno by tutaj wymagało, to ujawnienie inputu, to znaczy wszystkich danych osobowych, jakie były wzięte pod uwagę. AP: To jeszcze nie do końca daje nam informację o tym, jak procedowana była sama informacja. KS: Dokładnie – więc my nie rozumiemy, jak to zostało zważone, dlaczego taka grupa cech danej osoby, dlaczego taka sytuacja życiowa przełożyła się na decyzję. Nieumiejętność wyjaśnienia tego jest dla prawnika bardzo dużym problemem, a w zasadzie blokadą możliwości stosowania tego typu osiągnięć nauki do decyzji społecznie istotnych, takich jak decyzja o tym, czy idziesz do więzienia, czy nawet dostajesz mandat, czy zasługujesz na zasiłek albo inne wsparcie państwa. To jest chyba największe wyzwanie i myślę, że mogłybyśmy z tego z powodzeniem uczynić kolejny odcinek. AP: Na koniec mogę przekazać dobrą wiadomość. Powstało pierwsze narzędzie do odkrywania deep learningu, właśnie na MIT ostatnio, nazywa się Net Dissect. Służy do tego, żeby odtwarzać przetwarzanie obrazu, czyli chodzi o widzenie maszynowe, a nie uczenie – nie o semantykę, nie o teksty, nie o logi, nie o dane, które są wyrażone liczbowo czy tekstowo, tylko głównie o piksele. Myślę jednak, że to jest jaskółka, ona może jeszcze nie czyni wiosny, ale jest krokiem w dobrą stronę – i bardzo się cieszę, że ktoś zaatakował ten temat. KS: Ciekawe. Bardzo chętnie dowiem się więcej o jaskółkach i o tym, jak można je przenieść na nasze terytorium prawne. Wielkie dzięki za dzisiejsze spotkanie dotyczące RODO i tego, czego się obawiamy – może słusznie, a może niesłusznie. Maria Wróblewska Autorka Temat reforma ochrony danych profilowanie Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Marketing zgodny z RODO. Co myślimy o nowej wersji branżowego kodeksu W styczniu trafiła do nas druga wersja kodeksu ochrony danych osobowych w marketingu bezpośrednim. Autorzy poważnie potraktowali zgłoszone uwagi i przygotowali bardzo konkretny i przydatny materiał, w którym znalazła się bogata lista trafnie dobranych przykładów dobrych i złych praktyk. Mniej… 03.02.2022 Tekst Artykuł Dyskryminacja w świecie rządzonym przez dane Technologie oparte na danych nie są neutralne. Decyzje o zbieraniu, analizowaniu i przetwarzaniu konkretnych kategorii informacji są dyktowane czynnikami społecznymi, ekonomicznymi i politycznymi. Takie operacje z wykorzystaniem danych osobowych mogą nie tylko naruszać prywatność, ale też prowadzić… 13.07.2018 Tekst Artykuł Parlament Europejski zagłosował za reklamą polityczną bez manipulujących algorytmów Reklamy polityczne dostarczane tylko na podstawie danych wprost i świadomie podanych przez użytkowników – Parlament Europejski przyjął swoje stanowisko ws. rozporządzenia o przejrzystości reklam politycznych. Zakazuje ono przetwarzania danych zaobserwowanych i wywnioskowanych na potrzeby… 17.02.2023 Tekst