Korporacje muszą nam oddać kontrolę nad naszymi danymi. Ale jak do tego doprowadzić?

Unia Europejska postanowiła na nowo uregulować nasze relacje z cyfrowymi gigantami, takimi jak Google, Facebook, czy Amazon. W Brukseli zaprezentowano kilka dni temu Digital Services Act (kodeks usług cyfrowych) oraz towarzyszący mu Digital Market Act (prawo o rynku cyfrowym). W założeniu mają one wymusić na cyfrowych gigantach przyznanie większych praw użytkownikom. Ale czy te regulacje są naprawdę potrzebne? Czy dzięki nim uda się przywrócić równowagę między nami, a korporacjami, które biorą nasze dane w zamian za darmowe usługi internetowe? Rozmawiamy o tym – i nie tylko o tym – z Katarzyną Szymielewicz z Fundacji Panoptykon

Na poziomie ogólnym proponowane przez Unię przepisy mogą dostarczyć narzędzi, które umożliwią rozliczenie platform z władzy, jaką one sprawują nad naszymi danymi. Globalne koncerny mogą zostać np. zmuszone do umożliwienia użytkownikom odinstalowywania aplikacji fabrycznie zainstalowanych na ich urządzeniach. Nie będą mogły też lepiej prezentować własnych usług czy produktów na platformach kosztem konkurencji.

Zobacz również:

Z regulacji wynika, że platformy internetowe będą musiały zidentyfikować swoich użytkowników biznesowych i sprawdzić jakość ich usług. Platformy będą miały obowiązkowe procedury usuwania nielegalnych towarów. Internetowe platformy handlowe będą również proszone o śledzenie swoich handlowców („poznaj swojego klienta biznesowego”).

Platformy internetowe zostaną ponadto poproszone o zorganizowanie swoich interfejsów internetowych w sposób umożliwiający przedsiębiorcom wywiązywanie się z obowiązków informacyjnych wobec konsumentów. Dostępny będzie również nowy system zaufanych sygnalizatorów, np. dla właścicieli marek walczących z podrabianymi towarami, dla szybszego i łatwiejszego oznaczania i usuwania podrobionych towarów.

Przeczytaj: Tekst Rafała Pikuły o szykowanych rozporządzeniach Unii Europejskiej. Czy to początek cenzury?

Czytaj też materiał źródłowy: Komisja Europejska zaprezentowała dwa projekty regulacji dotyczących platform internetowych. 

Ponadto – zgodnie z projektem ustaw – cyfrowi giganci będą musieli utrzymywać i zapewniać dostęp do repozytoriów reklam. Umożliwi to naukowcom, społeczeństwu obywatelskiemu i władzom kontrolę sposobu wyświetlania reklam i kierowania na nie.

Czy to krok w dobrą stronę? W erze cyfrowej musimy zmienić sposób, w który rozliczamy się z firmami, które nam świadczą usługi w internecie. Może czas wrócić do modelu, w którym nie ma przepływu danych między mną, a firmą, zaś ja płacę w pieniądzu cenę za „gołą” usługę? Dziś korporacje cyfrowe dają usługę za darmo i w rozliczeniu przerabiają nasze dane, a nas – na profile marketingowe. Czy jesteśmy w pozycji zwierzyny łownej, cyfrowej biomasy?

„Wywalczmy nowy układ, w którym ja, jako konsument – na jakimś urządzeniu, serwerze, czy w jakimś miejscu które fizycznie, technologicznie kontroluję – mam te swoje dane i np. wpuszczam lub nie wpuszczam kogoś do korzystania z tego zasobu. Czyli to ja decyduję kto i po co może do tego mojego zasobu sięgnąć, co może z tym zrobić” – mówi w rozmowie z Homodigital.pl Katarzyna Szymielewicz, szefowa Fundacji Panoptykon.

„Czy walcząc z Covid-19 musimy poświęcić prywatność?”. Przeczytaj pierwszą część rozmowy tutaj.

Posłuchaj całej rozmowy w formie podcastu tutaj

Maciej Samcik, Marcin Ledworowski: W XXI wieku firmy stawiają sobie za cel nie tylko sprzedać nam produkt, ale przy okazji jak najwięcej się o nas dowiedzieć. Na przykład po to, żeby sprzedać nam potem drugi produkt. Zaczynamy być profilowani. Nie spotkałem się jeszcze z sytuacją, w której firma za to że profiluje mnie jako konsumenta, czy jako klienta, za to mi płaci. I przewrotnie zapytam: na ile powinienem wycenić ten mój profil konsumencki? Ile one są warte na rynku?

Katarzyna Szymielewicz: Nie wiem i nawet nie chcę się nad tym zastanawiać, ponieważ dla mnie jest to zupełnie błędna ścieżka myślenia. Jeżeli chcemy wchodzić w transakcje rynkowe z mającymi nasze dane megakorporacjami, to myślę że zawsze będziemy na straconej pozycji. Nasza pozycja negocjacyjna jest żadna.

Te dane są bezcenne? Mój profil konsumencki jest nie do wycenienia i nie ma takiej ceny za którą powinienem chcieć go sprzedać?

Nie w tym sensie są bezcenne, że nie można by ich jakkolwiek wycenić. Po prostu pułapką myślenia jest to, że ja mogę cokolwiek wygrać mając przepływ finansowy między mną a profilującą mnie korporacją. Myślę, że o wiele więcej mogę zyskać, mając kontrolę nad tym, jakie dane przepływają i decydując samodzielnie o tym, w jaki sposób ta wiedza może być wykorzystana.

Dla mnie wartością jest po pierwsze ograniczenie tego profilowania. A więc to, że mam powiedzieć komuś takiemu, jak Facebook, czy mój bank: „Słuchaj, dla zaoferowania usługi, którą ja od ciebie chcę, nie jest potrzebne, żebyś śledził nnp. moją lokalizację, bo nie życzę sobie, żebyś pokazywał mi reklamy dobrane do tego, gdzie ja fizycznie jestem. Skoro ja tego nie chcę, to ty tego nie rób“. Jeżeli mogłabym wymusić skutecznie szacunek dla moich wyborów i moich ograniczeń, to to jest dla mnie wartość.

Drugą wartością dla mnie jest to, do czego oni tę wiedzę wykorzystają. W tym momencie my jesteśmy zwierzyną łowną, planktonem przerabianym na profile marketingowe, które dostarczają wartość reklamodawcy. To jest tak ustawione od samego początku. Wszystkie te reklamy, wszystkie te rozrywki internetowe… one są tylko wabikiem po to, żebyśmy my byli online udostępniali swoją uwagę, udostępniali swoje dane i nakręcali tą machinę komercyjną.

W tym układzie nie my zyskujemy zyskuje wyłącznie druga strona. Zastanowiłabym się nad tym, jak my możemy przekierować wartość, którą dzisiaj dostaje reklamodawca – w postaci tego, że ja na coś klikam, a potem coś kupuję i za którą on płaci pieniądze – na wartość dla mnie, za którą ja zapłacę pieniądze.

Czytaj też: Sąd nad sztuczną inteligencją. Kto będzie płacił odszkodowanie, jeśli coś pójdzie nie tak?

Czytaj również: Siedem grzechów głównych sztucznej inteligencji. Dlaczego nie działa tak, jak byśmy chcieli? Jest wredna, rasistowska, nietolerancyjna… Co poszło nie tak?

Czytaj też: Human-in-the-loop, czyli co pomaga sztucznej inteligencji… mądrzeć?

Czyli powinniśmy mieć bezpieczeństwo danych i płacić za usługi, które dzisiaj dostajemy za darmo, czyli za nasze dane?

Nie mam najmniejszego problemu z tym, że moglibyśmy się rozliczać z firmami, które nam świadczą usługi. Dlaczego nie? Wolałabym wrócić do modelu, w którym nie ma przepływu danych, a ja płacę za „gołą” usługę.. To model, w którym ja autentycznie płacę za wartość, którą dostaję. Dziś oni dają mi usługę za darmo i w rozliczeniu przerabiają mnie na profile marketingowe i manipulują moją uwagą. Dopóki jesteśmy w pozycji zwierzyny łowne, cyfrowej biomasy, nie będzie dobrze. To, że mi ktoś odpali dolara za to, że wie o mnie wszystko, naprawdę nic nie zmienia. To jest rodzaj pewnego niewolnictwa, na które my się powinniśmy przestać zgadzać.

Ale to niewolnictwo nie dotyczy tylko naszej współpracy z korporacjami. Przecież płacimy abonament telewizyjny, nie mamy kompletnie wpływu na to, jakie treści w zamian nam dostarcza telewizja.

W przypadku profilowania mamy do czynienia z czymś innym, mamy do czynienia z bardzo głęboką ingerencją w nasze życie, bo tu nie chodzi o pieniądze. Dlatego ja świadomie uciekam od próby wyceny tego wszystkiego, co korporacje od nas biorą zamiast pieniędzy.

Wyceniając te profile, my kupujemy logikę korporacji, które mają dzisiaj przewagę, które bardzo chętnie powiedziałyby: „Dobrze proszę bardzo, to ile chcesz za wszystkie dane na swój temat, które mogę z ciebie wycisnąć? 10 dolarów? Proszę bardzo, będziemy ci płacić. My z tego wyciągniemy tysiąc albo pięć tysięcy. I ty nie będziesz wiedział jak to robimy. I jeszcze bardziej stracisz kontrolę, bo dostałeś pieniądze. Podpisałaś kontrakt na bycie w eksperymencie psychologicznym którego nie kontrolujesz. Nie masz nic do powiedzenia”

Dla mnie wejście w logikę rynku jeśli chodzi o profile marketingowe i wykorzystanie danych na nasz temat jest pułapką.

No dobrze, ale jak uciec z tej pułapki?

Dla mnie najciekawszą ścieżką jest szukanie autonomii w taki sposób żebyśmy my te dane, które wykorzystują korporacje, kontrolowali. Wyobraźmy sobie sytuację, w której, ja – na jakimś urządzeniu, serwerze, czy w jakimś miejscu które fizycznie, technologicznie kontroluję – mam te swoje dane i np. wpuszczam lub nie wpuszczam kogoś do korzystania z tego zasobu.

Czyli to ja decyduję kto i po co może do tego mojego zasobu sięgnąć, co może z tym zrobić. Być może nawet jakieś rozliczenia za tym idą w obie strony, ale one są wtórne. Najważniejsze jest to że ja, jako użytkowniczka, mam gwarancję że informacje o moim zdrowiu, o mojej lokalizacji o moim ciele, o mojej gorączce o czymkolwiek, posłużą temu, czemu ja chcę, żeby służyły. I w ten sposób ja coś wygrywam, uciekam z pozycji zwierzyny łownej.

Czy to powinno być odgórnie czyli regulacyjnie załatwione, czy my jako konsumenci powinniśmy być na tyle świadomi, dojrzeć konsumencko do tego, żeby zacząć to wymuszać na firmach, które nas chcą profilować i na tym zarabiać, zmianę modelu? Po prostu nie korzystać z usług tych firm, które na nas zarabiają nie dając nam możliwości kontrolowania własnych danych?

Poleganie na decyzjach pojedynczych konsumentów jest pewną naiwnością. Jestem zwolenniczką regulacji, o której zresztą bardzo otwarcie mówi Komisja Europejska. Ta reforma w zasadzie już się toczy – mamy w grudniu poznać pierwsze rozwiązania. Jednym z elementów tej reformy mają być regulacje pisane dla konkretnych platform nazwanych po imieniu np. dla Facebooka, Google, Ubera, czy Netfliksa, które coś konkretnego na tych firmach wymuszają, albo czegoś konkretnego im zakazują.

I to jest ścieżka politycznie najskuteczniejsza, czyli bierzemy konkretną platformę przyglądamy się temu co ona robi. Widzimy, że na przykład wycina konkurencję w postaci niezależnych aplikacji świadczących jakieś ważne usługi. I dokładnie tego jej zakazujemy. Mówimy: „słuchaj, Facebook, nie możesz wziąć danych wydawców, którzy kupują u ciebie reklamy po to żeby profilować ich użytkowników, a tą wiedzą się nie dzielić z wydawcami. Musisz im tę wiedzę pokazać”

Albo: „musisz dać swoim użytkownikom możliwość przenoszenia danych na inne platformy w łatwy, intuicyjny sposób. To muszą być wszystkie dane jakie posiadasz, a nie tylko kawałeczek”.

Nie wierzę w możliwość napisania ogromnej ustawy, która obejmie całą złożoność internetu, wierzę w możliwość napisania konkretnych reguł dla konkretnych platform i cieszę się że Unia Europejska, Komisja Europejska dokładnie taki pomysł sformułowała.

Myślisz, że Polska jako polski rząd poprze te rozwiązania?

Polski rząd wydaje się to wspierać. Dostrzegam natomiast próbę ochrony interesów mniejszych platform, zapewne takich jak pochodzące z Polski Allegro. Rząd ewidentnie nie chciałby, żeby ta regulacja uderzyła również w mniejsze portale, co – jak myślę – jest zbieżne z intencjami Brukseli.

Gdzie w tym wszystkim jest sztuczna inteligencja? Czy ona powiększa ryzyko wynikające z tego, że mamy problem aby okiełznać korporacje, które chciałyby się bawić naszymi danymi i zarabiać na tym pieniądze? Czy to jest dodatkowy czynnik ryzyka i dodatkowe utrudnienie, czy też to jest tak naprawdę technologia która jest trochę obok problemu profilowania i kontroli nad danymi konsumentów?

Z całą pewnością sztuczna inteligencja w tym momencie działa po stronie firm profilujących, bo tylko one mają do tej technologii dostęp. Ludzie profilowani zazwyczaj nawet nie wiedzą, że sztuczna inteligencja też nad nimi „pracuje”. Zwykle nie wiedzą jak ten mechanizm działa. Jest im ta sztuczna inteligencja prezentowana jako czarna skrzynka do której nie mogą zajrzeć.

Jeżeli jestem profilowana na Facebooku i widzę, że pewien rodzaj treści jest mi serwowany, a inny rodzaj treści nie, to nie mogę dzisiaj dociec, ani dlaczego tak się dzieje, ani zablokować tego mechanizmu, ani zweryfikować nawet danych wchodzących do owej czarnej skrzynki.

Dziś ta technologia działa przeciwko konsumentom, a nie w ich interesie.

Czy dziś jeszcze jest możliwość, żeby wyrównać układ sił? Przecież nie dokupimy sobie domowej sztucznej inteligencji, która będzie walczyła z tą, którą „przeciwko” nam wykorzystują korporacje?

Sama sztuczna inteligencja to jest po prostu narzędzie. Potrafię sobie wyobrazić doskonale system, w którym to my ją kontrolujemy, to my ją trenujemy, mamy dostęp nie tyle do samego kodu, czy algorytmu, ale mamm dostęp do interfejsu, który pozwala ten algorytm trenować.

Moim zdaniem musimy rozdzielić narzędzie, które jest dość neutralne i da się je wykorzystać zarówno jako coś, co chroni nasze interesy, jak i jako broń przeciwko nam. Dzisiaj rozmawiamy o tym, że kilka globalnych firm „trenuje” algorytmy uczące się. To one wiedzą jakim celom te algorytmy służą, to one te cele definiują i to musi się zmienić.

Czy dla sztucznej inteligencji też powstanie takie jakby „RODO”, czyli nowy sposób kontroli narzucony przez regulatorów? Czy powstanie zestaw zasad, którymi musimy się kierować posługując się sztuczną inteligencją? Po to, żeby wykluczyć albo utrudnić takie obchodzenie się ze sztuczną inteligencją, której będzie nieetyczne?

Wszystko wskazuje na to, że Unia Europejska ma już dość rozmowy o etyce, co mnie bardzo cieszy bo o etyce sztucznej inteligencji rozmawiamy politycznie od chyba pięciu lat przynajmniej. Powstało mnóstwo kodeksów etycznych i nie jest to skuteczny środek oddziaływania na politykę firm, a tym bardziej rządów. Pomysł Unii Europejskiej jest teraz inny. W przyszłym roku ma się pojawić wiążąca horyzontalna regulacja prawna dla sztucznej inteligencji, czyli takie ramy prawne które regulują co wolno, czego nie wolno.

Ważnym aspektem będzie niezależny audyt. My nie zawsze musimy rozumieć jak działa system, żeby sprawdzić czy on działa dobrze. Możemy sobie wyobrazić różne metody sprawdzania skutków społecznych działania sztucznej inteligencji, skutków indywidualnych, dla konkretnych ludzi. Możemy też wymagać analizy skutków działania systemu, którą prowadzi sam twórca algorytmów sztucznej inteligencji. Żeby przeszedł przez check listę i wykazał jakie przeprowadził wewnętrzne testy.

Czyli np. w samochodach autonomicznych będą takie naklejki, na których będzie napisane: „ten samochód podejmuje takie i takie decyzje”. Np. jaka jest zaimplementowana fabrycznie decyzja o wyborze mniejszego zła w sytuacji zderzenia z innym samochodem lub z człowiekiem na przejściu dla pieszych?

Hanna Fray, matematyczka brytyjska, która bada ten temat od lat, bardzo przestrzega przed tym, żeby w ogóle iść drogą autnomii w przypadku samochodów. Jej zdaniem nie da się zaprojektować algorytmu, który by analizował cały kontekst i wszystkie czynniki jakie musiałby analizować samochód, żeby mógł podjąć decyzję w sytuacji kryzysowej. Nie ma takiej reguły etycznej, na którą byśmy się zgodzili, jeśli chodzi o to, co powinien zrobić samochód autonomiczny w sytuacji zagrożenia. Akurat dla tej technologii tych naklejek, o których mówicie, się nie doczekamy. Natomiast dla dużo prostszych algorytmów, które podejmują mniej ważkie decyzje, zapewne się doczekamy.

Obawiam się, że sztuczna inteligencja wymusi, że to nie będą naklejki, tylko bardzo długie ulotki, których nikt nie będzie chciał czytać

Myślę że Unia Europejska pójdzie w kierunku warstwowej regulacji, w której być może zostanie zatwierdzona jakaś naklejka, jakiejś ikony, ostrzeżenia dla konsumentów, ale liczę że przede wszystkim pojawi się wymóg niezależnych audytów, publikowania dokumentacji tych systemów po to, żeby inni eksperci mogli w to zaglądać i mogli mówić: „Halo, ale co to jest? Ten system nie powinien tak działać, bo to jest niebezpieczne”.

Subscribe
Powiadom o
guest
0 komentarzy
Inline Feedbacks
View all comments
Najnowsze wpisy naszych autorów Wszyscy autorzy
Przyszłość jest tutaj

Podaj swój adres email i odbieraj najświeższe informacje o nowych technologiach i nie tylko.

email-iconfacebooktwitteryoutubelinkedin instagram whatsup