Artykuł 11.05.2023 3 min. czytania Tekst Image Obowiązki dotyczące transparentności algorytmów wynikające z aktu o usługach cyfrowych (DSA) odnoszą się do wszystkich platform internetowych, nie tylko tych największych. W oficjalnym tłumaczeniu aktu na język polski jest błąd. Zgłosiliśmy go do Komisji Europejskiej. Aktualizacja (22 maja 2023 r.): europoseł Adam Jarubas zareagował na informacje od nas i złożył w tej sprawie interpelację. Notabene: analogiczne przeoczenie odkryto w maltańskiej wersji DSA. Aktualizacja (20 lutego 2024 r.): w Dzienniku Urzędowym Unii Europejskiej z dnia 29 czerwca 2023 r. (Dz.U.UE.L.2023.163.107) ukazało się sprostowanie artykułu 27: Strona 59, art. 27 ust. 1: zamiast: „1. Dostawcy bardzo dużych platform internetowych, którzy korzystają z systemów rekomendacji, w prostym i przystępnym języku określają w swoich warunkach korzystania z usług główne parametry stosowane w ich systemach rekomendacji, a także wszelkie opcje zmieniania tych parametrów przez odbiorców usługi lub wpływania na nie.”, powinno być: „1. Dostawcy platform internetowych, którzy korzystają z systemów rekomendacji, w prostym i przystępnym języku określają w swoich warunkach korzystania z usług główne parametry stosowane w ich systemach rekomendacji, a także wszelkie opcje zmieniania tych parametrów przez odbiorców usługi lub wpływania na nie.”. Added in translation. Artykuł 27 Błąd znaleźliśmy w artykule 27 DSA. Wersja angielska: Article 27. Recommender system transparency 1. Providers of online platforms that use recommender systems shall set out in their terms and conditions, in plain and intelligible language, the main parameters used in their recommender systems, as well as any options for the recipients of the service to modify or influence those main parameters. Wersja polska: Artykuł 27. Przejrzystość systemu rekomendacji 1. Dostawcy bardzo dużych platform internetowych, którzy korzystają z systemów rekomendacji, w prostym i przystępnym języku określają w swoich warunkach korzystania z usług główne parametry stosowane w ich systemach rekomendacji, a także wszelkie opcje zmieniania tych parametrów przez odbiorców usługi lub wpływania na nie. Faktycznie w trakcie prac nad DSA była rozważana propozycja, żeby ten artykuł stosował się tylko do największych platform (bardzo duże platformy internetowe, VLOP), ale w ostatecznie przyjęto, że będzie stosowany do wszystkich platform internetowych. Błąd brzemienny w konsekwencje: czy np. Allegro powinno stosować zasady transparentności algorytmów? Błąd w tłumaczeniu może powodować niemałe zamieszanie na polskim rynku. Kluczowe jest to, czy dana usługa używa systemów rekomendacyjnych, a nie liczba jej użytkowników. Do reguł opisanych w artykule 27 powinny zastosować się wszystkie platformy, które stosują systemy rekomendacyjne (np. platformy handlowe, społecznościowe czy hostujące filmy). Anna Obem Współpraca: Dorota Głowacka Działania organizacji w latach 2022–2024 dofinansowane z Funduszy Norweskich w ramach programu Aktywni Obywatele – Fundusz Krajowy. Anna Obem Autorka Temat algorytmy Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Algorytmiczny eksperyment Facebooka Od 11 stycznia strumień aktualności na Facebooku (podobno) działa na nowych zasadach: treści, które zostały wrzucone przez naszych znajomych albo wywołały ich komentarze mają większą widoczność niż treści generowane przez media i inne strony (także organizacji i ruchów społecznych). Przez… 25.01.2018 Tekst Artykuł Instalacja artystyczna „Maska”. Odkryj swoją cyfrową twarz! Twarz to wizytówka, którą trudno ukryć. Dzięki unikalnemu rozmieszczeniu jej elementów technologie mogą nas identyfikować, a nawet rozpoznawać nastrój i emocje. Naszą twarzą interesuje się zarówno biznes, jak i państwo. Firmy chcą z niej wyczytać wiek, zasobność portfela i reakcje na bodźce,… 03.10.2019 Tekst Artykuł Pomoc społeczna na łasce algorytmów [wywiad] Dlaczego państwa tak chętnie próbują oddać system pomocy społecznej w ręce algorytmów? Zagadnienie tłumaczy kanadyjski socjolog i badacz wykorzystania algorytmów przez administrację publiczną dr Mike Zajko. 04.04.2024 Tekst