„Warto jednak podkreślić, że nie jest tak, że Facebook celowo wyszukuje nasze słabości i pogłębia nasze lęki. To raczej pochodna logiki biznesowej tego portalu, która zakłada maksymalizowanie naszego zaangażowania i czasu, jaki spędzamy na tej platformie” – mówi Karolina Iwańska z Fundacji Panoptykon. Porozmawiałyśmy o ostatnio przeprowadzonym przez Panoptykon eksperymencie „Algorytm traumy” i emocjach, które mogą w nas budzić reklamy.
Sylwia Błach: Czego się boisz?
Karolina Iwańska: Z rzeczy większego kalibru — tego, że moi bliscy zachorują, że na granicy umrą kolejne osoby i katastrofy klimatycznej.
Z eksperymentu przeprowadzonego przez Panoptykon wynika, że jeśli za dużo na ten temat powiesz w Internecie, Facebook wykorzysta tę wiedzę przeciwko tobie.
Wcale nie muszę o tym dużo mówić, a wręcz mogę nie mówić wcale. Wystarczy, że swoim zachowaniem pokażę, że ruszają mnie treści, które do moich strachów nawiązują. Może statystycznie dłużej zatrzymam na Facebooku oko na postach o kolejnych pożarach w Grecji, a może na innych stronach internetowych przeczytam kilka artykułów o skutkach ocieplania się klimatu. Podobnie było w przypadku bohaterki naszego eksperymentu. Joanna zgłosiła się do nas, bo zauważyła, że na Facebooku dostaje podejrzanie dużo reklam dotyczących zdrowia, zwłaszcza zdrowia dzieci. To dla niej drażliwy temat, odkąd jej bliska osoba zmarła na raka, wywołujący jeszcze większy niepokój od czasu, gdy Joanna zaszła w ciążę i została mamą.
Na czym dokładnie polegał eksperyment algorytm traumy?
W ramach eksperymentu „algorytm traumy” wspólnie z Piotrem Sapieżyńskim, badaczem z Northeastern University w Bostonie, przeanalizowaliśmy ponad 2000 reklam, które Joanna zobaczyła na Facebooku w ciągu dwóch miesięcy. Okazało się, że tych dotyczących zdrowia jest faktycznie sporo – aż 1 na 5. Często te reklamy dotyczyły zbiórek na śmiertelnie chore dzieci, po których następowały komercyjne oferty badań na raka czy na rzadkie dziecięce choroby.
Dowiedzieliśmy się też, że Facebook – na podstawie zachowania Joanny – przypisał jej w ustawieniach reklam 21 kategorii (tzw. zainteresowań) związanych ze zdrowiem, np. „nowotwór”, „wady genetyczne”, „rdzeniowy zanik mięśni”. Wyłączaliśmy te kategorie jedna po drugiej i obserwowaliśmy, jak wpłynie to na wyświetlane Joannie reklamy. Okazało się, że choć na początku liczba reklam o zdrowiu faktycznie spadła, to pod koniec 2-miesięcznego eksperymentu wróciła w zasadzie do początkowego poziomu. A to dlatego, że zmiana ustawień sprawia, że sami reklamodawcy faktycznie nie będą mogli już wykorzystywać tych wrażliwych kategorii do targetowania reklam, ale nie wpływa zupełnie na to, co robi sam algorytm, który wybiera osoby, które są najbardziej skłonne kliknąć reklamy.
Algorytm… traumy. Czy to nie zbyt mocne określenie? Czy naprawdę reklamy w Internecie mogą wywołać w nas tak trudne emocje?
Tak swoje emocje określa sama Joanna. Reklamy, które – wbrew zmianom ustawień – były jej ciągle pokazywane, podbijały jej lęki i przypominały o traumie związanej ze stratą bliskiej osoby. Wciąż mało mówi się o tym, jak działanie algorytmów wielkich platform może wpływać na nasze zdrowie psychiczne. Tymczasem te same algorytmy, które dobierają nam reklamy produktów dopasowanych do naszych rzeczywistych potrzeb, mogą żerować na naszych słabościach. Sam Facebook to zresztą wie – jak pokazały doniesienia sygnalistki Frances Haugen, z wewnętrznych dokumentów Facebooka wynika, że zarząd firmy jest, chociażby, świadomy negatywnego wpływu Instagrama na nastolatki.
Warto jednak podkreślić, że nie jest tak, że Facebook celowo wyszukuje nasze słabości i pogłębia nasze lęki. To raczej pochodna logiki biznesowej tego portalu, która zakłada maksymalizowanie naszego zaangażowania i czasu, jaki spędzamy na tej platformie. Te założenia zostały wpisane w algorytmy Facebooka. Naszą uwagę mogą przykuć reklamy sprzętu sportowego, ale też – jak pokazuje nasz eksperyment – treści, do których ciągnie nas nie chęć miłego spędzenia weekendu, ale lęki czy niepokoje, których nie jesteśmy w stanie przezwyciężyć.
Praktycznie od urodzenia otaczają nas reklamy. Dlaczego właśnie te w mediach społecznościowych są takie niebezpieczne?
Dlatego, że w przeciwieństwie do tradycyjnych reklam polegają nie na kontekście, w jakim je zobaczymy, a na ciągłej obserwacji naszego zachowania w sieci. Reklamę telewizyjną czy w prasie zobaczą wszyscy, którzy akurat oglądają konkretny kanał albo czytają konkretną gazetę – niezależnie od tego, kim są. Reklamy w mediach społecznościowych zobaczą z kolei te osoby, które ze względu na ich zachowanie Facebook czy Google ocenił jako bardziej skłonne zareagować na tę konkretną treść.
Tradycyjne reklamy oczywiście opierają się na pewnych założeniach co do cech osób, które decydują się na takie, a nie inne źródło wiedzy – na przykład inne reklamy zobaczymy w specjalistycznej prasie ekonomicznej, a inne w kobiecym magazynie. Ale w przypadku mediów społecznościowych w grę wchodzi ciągłe śledzenie i profilowanie konkretnych osób pod kątem ich cech, i to nie tych samodzielnie przez nich zadeklarowanych czy ujawnionych, ale bardzo często – jak też pokazuje nasze badanie – tych, które chcieliby zachować dla siebie. A tak wcale nie musi być – w serwisach społecznościowych jest jak najbardziej miejsce na reklamę kontekstową, która nie żeruje na naszych indywidualnych cechach.
Kto na tym korzysta?
Przede wszystkim Google i Facebook, które obecnie kontrolują rynek reklamy internetowej i co kwartał notują miliardy dolarów zysku. Te firmy od lat dokonują takich biznesowych wyborów, żeby uzależnić od siebie nie tylko zwykłych użytkowników Internetu, ale też klientów biznesowych – reklamodawców. Kupują kolejne startupy, przez co ograniczają konsumentom możliwość wyboru alternatyw, a wydawców mediów internetowych pozbawiają dochodu niezbędnego do tworzenia wartościowych treści, bo reklamodawcy wybierają reklamowanie się na Facebooku czy w Google’u, które rzekomo oferują bogatsze profile marketingowe. Pojawia się też coraz więcej danych pokazujących, że nawet reklamodawcy nie korzystają na tej sytuacji, a reklama śledząca to oparta na wyssanych z palca wskaźnikach bańka spekulacyjna, która lada moment pęknie. Wiemy z badań, chociażby to, że reklama kontekstowa może być z perspektywy reklamodawców równie, a nawet bardziej skuteczna niż reklama oparta na ciągłych naruszeniach prywatności.
Joanna doświadczyła nasilenia lęków spowodowanego targetowanymi reklamami. Ale targetowanie to nie tylko kwestia zdrowia i lęku. W jakich jeszcze sytuacjach/kontekstach jesteśmy manipulowani za pomocą reklam?
Oczywistym obszarem wpływu są nasze codzienne wybory konsumenckie, nawet jeśli wydaje nam się, że jesteśmy odporni na reklamę. Psycholodzy i marketingowcy od dawna wiedzą, że subiektywne przekonanie o tym, że oglądane przez nas reklamy nie mają wpływu na nasze decyzje konsumenckie, nie pokrywa się z rzeczywistością. Reklama nie zawsze ma za zadanie sprowokować zakupu bezpośrednio po jej obejrzeniu, ale na przykład wyłącznie zwiększyć świadomość marki (tzw. brand awareness). Efekt takiej reklamy może być odwleczony w czasie. Na przykład gdy staniemy w sklepie przed wyborem proszku do prania, sięgniemy po tę markę, której reklamy były nam serwowane, nawet jeśli o nich nie pamiętamy.
Z mechanizmów śledzącej reklamy korzystają jednak nie tylko firmy oferujące produkty konsumenckie, ale coraz częściej również politycy, wykorzystujący intymne cechy użytkowników Google’a czy Facebooka do docierania do nich z dokładnie spersonalizowanym przekazem wyborczym.
Ale reklama to nie jedyny niepokojący obszar. Na tej samej logice maksymalizowania uwagi opierają się algorytmy, które szeregują dla nas treści niesponsorowane – te pochodzące od znajomych czy stron, które obserwujemy. Facebook czy YouTube prowadzą ciągłe kalkulacje tego, co jak najdłużej zatrzyma nas na platformie. A że najbardziej angażujące często są treści sensacyjne, polaryzujące czy zwyczajnie nieprawdziwe, cierpi na tym jakość debaty publicznej. Same partie polityczne przyznają zresztą, że aby dotrzeć na Facebooku do większej liczby osób z niesponsorowanymi postami, musiały formułować swoje komunikaty dużo ostrzej i radykalniej.
Brzmi przerażająco… Ale skąd giganci biorą te wszystkie dane na nasz temat? Bohaterka eksperymentu algorytm traumy nie wykorzystywała mediów społecznościowych do dzielenia się swoimi obawami. Jednak targetowanie trafiło w jej czuły punkt.
Dane, które wprost ujawniamy, to czubek góry lodowej. Facebook śledzi każdy cyfrowy ślad, który po sobie zostawiamy. To kiedy się logujemy, skąd, jak długo zatrzymamy wzrok na jakiejś treści, w którą klikniemy, a którą zignorujemy. I to nie tylko na samym Facebooku, ale też na innych serwisach należących do jego imperium. Mówię o Instagramie i Whatsappie oraz na zupełnie niezależnych stronach internetowych, na których pojawiają się wtyczki społecznościowe Facebooka i wraz z nimi narzędzia śledzące platformy. Bohaterka eksperymentu nie musiała nic o swoich obawach ujawniać wprost. Wystarczyło, że kliknęła parę razy w zbiórki na chore dzieci, przeczytała w Internecie kilka artykułów o objawach chorób dziecięcych albo po prostu przestała na chwilę scrollować i zatrzymała się przy postach dotyczących zdrowia, nawet w nie nie klikając.
Przecież na Facebooku są narzędzia do ograniczania niechcianych treści, które powinny nas chronić…
Autentycznie liczyliśmy na to, że jeśli Facebook przekonuje nas, że mamy pełną kontrolę nad naszymi danymi i treściami, jakie widzimy, to tak jest. Okazało się, że nie możemy ufać tym zapewnieniom. W praktyce jako użytkownicy nie dysponujemy żadnymi narzędziami, by skutecznie chronić się przed negatywnymi konsekwencjami algorytmów. Z perspektywy indywidualnych użytkowników nasze pole manewru jest mocno ograniczone. Dlatego potrzebujemy zmiany prawa i rozwiązań, które domyślnie zakażą Facebookowi i innym cyfrowym gigantom wyciągania wniosków o nas na bazie naszego zachowania i oddadzą nam pełną kontrolę nad naszymi danymi i treściami, które chcemy oglądać. Samoregulacja się wyczerpała, teraz potrzebujemy prawnych gwarancji ochrony przed nadużyciami.
Czy istnieją ścieżki prawne, które możemy wykorzystać, by się chronić?
W naszym badaniu próbowaliśmy wykorzystać jedną z nich – prawo o ochronie danych osobowych (RODO). Jeden z przepisów RODO mówi o tym, że mamy prawo domagać się wyjaśnienia logiki działania algorytmów podejmujących decyzje, które na nas istotnie wpływają. Poza tym, mamy też prawo dostępu do wszelkich naszych danych.
Z naszym wsparciem bohaterka eksperymentu próbowała wydobyć od Facebooka wyjaśnienie, dlaczego widzi niepokojące reklamy i jakie konkretne informacje na jej temat i gdzie zebrane zdecydowały o tym, że Facebook przypisał jej szereg zainteresowań dotyczących zdrowia. Bezskutecznie. Początkowo dostawaliśmy automatycznie wygenerowane odpowiedzi, ale nawet gdy udało nam się skontaktować z osobą z zespołu odpowiedzialnego za ochronę danych, zamiast odpowiedzi na nasze pytania i konkretnych danych Joanny, otrzymaliśmy „kopiuj-wklej” fragmentów polityki prywatności. RODO niestety ma swoje ograniczenia i nie odpowiada na wyzwania związane z algorytmami dopasowującymi reklamy. Szansą na rozwiązanie tych problemów jest procedowany właśnie w Unii Europejskiej akt o usługach cyfrowych (Digital Services Act), który ma uregulować działanie platform internetowych, w tym to, jak serwują reklamy i rekomendują treści.
A co, jeśli już dotknął nas „algorytm traumy”? Czy możemy kogoś pociągnąć do odpowiedzialności za szkody na zdrowiu psychicznym?
Myślę, że wykazanie przed sądem, że to Facebook ponosi odpowiedzialność za nasze wydatki na psychiatrę czy psychoterapeutę, byłoby niezwykle trudne, a na pewno kosztowne. Jako Panoptykon sądzimy się z Facebookiem w innej sprawie (niezasadnego zablokowania treści Społecznej Inicjatywy Narkopolityki – organizacji walczącej ze skutkami korzystania z narkotyków), więc mamy doświadczenie z pierwszej ręki, że ich świetnie opłacani prawnicy zrobią wszystko, żeby utrudnić i przedłużyć postępowanie i spowodować takie koszty po drugiej stronie, że mało kogo byłoby stać na dotrwanie do wyroku, nawet korzystnego.
Targetowanie reklam to narzędzie, które w teorii miało pomóc i nam, i reklamodawcom w dostarczaniu precyzyjnych treści i filtrowaniu niechcianych… Niestety, nie wyszło. Jak sądzisz, czy to w ogóle miało szansę zadziałać? Albo, szerzej, jak sobie wyobrażasz bezpieczne media społecznościowe? Jestem zdania, że one z naszego życia nie znikną, tylko będą ewoluować.
Jak najbardziej. Zupełnie nie chodzi o to, abyśmy teraz cofnęli się do czasu sprzed mediów społecznościowych, a raczej o to, by one faktycznie działały w naszym interesie, a nie przede wszystkim swoim własnym. Problemy, na które zwracamy uwagę, mają charakter systemowy. Są ściśle ze sobą powiązane, a ich źródłem jest model biznesowy, oparty na ciągłym śledzeniu i komercjalizowaniu naszych zachowań, co Shoshana Zuboff nazywa „kapitalizmem inwigilacji”. Dopóki ten model się nie zmieni, nic się nie zmieni naprawdę. Potrzebujemy nie tylko kontroli społecznej nad działaniami istniejących platform, ale również — a może przede wszystkim — alternatywnych, etycznych rozwiązań, które są oparte na innych modelach biznesowych niż ten, na którym dziś opierają się dominujące platformy.
Jak to osiągnąć? Jak wyeliminować algorytm traumy?
Doprowadzić nas do tego może wymuszenie na cyfrowych gigantach interoperacyjności, czyli umożliwienia innym firmom, ale też niekomercyjnym inicjatywom, korzystania z ich infrastruktury technicznej do tego, by dostarczać nam alternatywne usługi. Na przykład, umożliwienia ludziom wyboru niezależnego od Facebooka, zaufanego algorytmu szeregowania postów w newsfeedzie czy targetowania reklam. Takie „rozwarstwienie” złożonej usługi, jaką jest serwis społecznościowy na poszczególne składowe: przechowywanie treści z jednej strony, a jej personalizowanie z drugiej, byłoby nie tylko odpowiedzią na patologie, z jakimi mamy do czynienia na Facebooku, ale też zwiększałoby stabilność
mediów społecznościowych i nie uzależniałoby nas od jednej wielkiej firmy, która — jak pokazuje ostatnia wielogodzinna awaria — jest bardziej krucha, niż myśleliśmy.
Takich mediów społecznościowych nam wszystkim życzę i równie fascynujących eksperymentów jak „algorytm traumy”. Dziękuję za rozmowę!
Przeraża cię algorytm traumy? Przeczytaj o tym, do czego doprowadziła nas ostatnia awaria Facebooka!