„Fałszywe informacje może rozpowszechnić każdy, świadomie lub nie. Lubię pokazywać to na przykładzie Pornhuba. Jeden użytkownik Twittera puścił plotkę, że Pornhub zablokował użytkowników z Rosji. Niewinny żarcik. Ale w ciągu doby zyskał 500% wzrostu zasięgów w wielu językach. A wiemy, jak jest w Internecie i na świecie: kłamstwo powtórzone tysiąc razy zaczyna być brane za prawdę” – opowiada Kamil Bargiel, CEO SentiOne, firmy tworzącej narzędzia do monitorowania internetu i mediów społecznościowych.
Rafał Pikuła: Od kiedy zauważyliście wysyp fałszywych informacji i jaki to ma cel wobec Polaków i całego świata?
Kamil Bargiel: Dezinformacja, fake newsy, propaganda, plotki, kłamstwa były z nami od zawsze i na zawsze z nami zostaną. Mamy tendencję do wrzucania wszystkich tych terminów do jednego worka fałszywych informacji, jednak są między nimi istotne różnice. Przykładowo: celowość działania. Czym innym jest celowa propaganda opłaconych trolli, które z różnych krajów z fałszywych kont na Twitterze wysyłają te same emocjonalne wiadomości, a czym innym są nieświadomi Internauci, którzy rozpowszechniają fałszywe informacje „w dobrej wierze”, bo właśnie przeczytali, że trzeba kupić płyn Lugola.
Niestety, i jedna i druga grupa jest równie groźna, bo przyczynia się do zwiększania zasięgów fake newsów. Dlatego tak dużo mówimy od miesiąca o chłodnej głowie, sprawdzaniu źródeł i nowej, koniecznej umiejętności, czyli fact checkingu.
Kto stoi za dezinformacją, są to boty, ludzie, firmy? Czy możemy postawić taką tezę?
Fałszywe informacje może rozpowszechnić każdy, świadomie lub nie. Lubię pokazywać to na przykładzie Pornhuba. Jeden użytkownik Twittera puścił plotkę, że Pornhub zablokował użytkowników z Rosji. Niewinny żarcik. Ale w ciągu doby zyskał 500% wzrostu zasięgów w wielu językach. A wiemy, jak jest w Internecie: kłamstwo powtórzone tysiąc razy zaczyna być brane za prawdę.
Istnieją również opłacone firmy, tzw. farmy trolli, które masowo otwierają konta w różnych mediach społecznościowych i powielają te same wpisy. Zazwyczaj są one dość emocjonujące, z clickbaitowym tytułem i wsparte przejmującą grafiką, która może w ogóle nie dotyczyć tego tematu – jak np. zdjęcia z wojny w Jemenie pokazywane jako obecne widoki z Ukrainy. Do tego mamy boty, które automatycznie udostępniają posty o określonych hashtagach, a jak już tweet nabierze sztucznie zasięgu dzięki botom, to następnie łapie ruch organiczny – bo sam post celowo wzbudza emocje i polaryzuje.
Więc nie można postawić tezy, że to jedna organizacja, grupa ludzi lub same boty. To jest już nieźle naoliwiony proces. Niestety.
Czy znamy jakieś wcześniejsze przypadki dezinformacji na świecie?
Oczywiście, że tak! Zazwyczaj dezinformacja szybko się rozprzestrzenia, gdy pada na podatny grunt, a tak jest, gdy coś dla nas, zwykłych Kowalskich jest nowe, niezrozumiałe, niejasne. Np. pierwsza fala pandemii koronowirusa. Jeszcze nie wiedzieliśmy, jak jest groźna, nie potrafiliśmy naszym mózgiem zrozumieć tej sytuacji. Nauka zbyt wolno wyjaśniała nam wszystkie zawiłości (wszak badania kliniczne tak długo trwają), więc tę lukę informacyjną zapełniały fake newsy, teorie spiskowe i dezinformacja. I zaczęła się fala niedomówień powtarzanych po tysiąc razy w sieci: Bill Gates i chipy, chińska broń biologiczna, zmowa rządów, by kontrolować społeczeństwo itd. Gdy badaliśmy dezinformacje na temat pandemii, widzieliśmy, jak z czasem kolejne teorie spiskowe traciły na popularności, gdy nauka była w stanie w przystępny sposób wyjaśnić kolejne zagadnienia.
W sieci dezinformacja pojawia się też bardzo często w przypadku wyborów prezydenckich lub parlamentarnych. Jest już wiele organizacji, które do perfekcji opanowały sztukę mikro-targetowania na Facebooku, tak by z bardzo precyzyjnym komunikatem, które może być półprawdą lub pół kłamstwem, trafić do danego wyborcy. Szczęśliwie zarówno Facebook jak i Google bardzo zaostrzyły swoją politykę reklamową, jeśli chodzi o treści polityczne.
Na co powinniśmy zwracać uwagę w przypadku informacji w sieci na temat wojny w Ukrainie?
Pozwoli Pan, że podam kilka przykładów.
- Clickbaitowy tytuł – niektóre portale chcą zarobić na wojnie i zwiększyć ruch na swojej stronie, więc będą przyciągać uwagę chwytliwymi tytułami na pograniczu kłamstwa. W ciągu ostatnich tygodni w SentiOne odnotowaliśmy wiele wpisów o treści “Ukraine airplane crashed, 790 people dead, click here to watch the video” – takie treści mają na celu tylko zwiększenie wejść na stronę spamera, a możliwe, że i zainfekowanie komputera po wejściu na stronę.
- Informacje, które wzbudzają skrajne emocje – szok, strach, gniew, ale też śmiech i radość, mają wysoki potencjał viralowy. Dlatego news o zablokowaniu dostępu do serwisu Pornhub w Rosji, który ostatecznie okazał się być fałszywy, tak szybko się rozprzestrzenił. A w przypadku wojny spreparowanie treści szokujących i strasznych nie jest problemem.
- Filmy, rolki i relacje w mediach społecznościowych również mają duży potencjał viralowy, nie tylko dlatego, że algorytmy tych platform są nastawione na promowanie treści video. Również my jako ludzie dużo intensywniej odbieramy treści video, niż sam tekst.
- Zdjęcia pochodzące z innych miejsc lub czasów – łatwo jest dokonywać manipulacji z pomocą archiwalnych materiałów, np. Wspomnianych zdjęć z wojny w Jemenie prezentowanych jako zdjęcia z Kijowa. Media społecznościowe pozwalają szybko podawać informacje, ale niestety często brakuje czasu na weryfikację danych.
- Deepfake, czyli sfabrykowany materiał video lub audio – bardzo łatwo teraz spreparować lub zmontować film tak, by ukazywał dowolne treści czy osoby w nieprawdziwych sytuacjach. Niestety, ale bardzo łatwo będzie stworzyć video prezentującego prezydenta Zełenskiego wiarygodnie ogłaszającego kapitulację Ukrainy. Technologia już na to pozwala. Na YouTube jest rzekomy “wyciek” rozmowy telefonicznej między Władimirem Putinem a generałem Szojgu. Ta rozmowa ma przedstawiać prawdziwą reakcję armii rosyjskiej na ukraiński opór i plany na dalsze dni. W dobie deep fejków spreparowanie takiego materiału audio nie jest trudne, a wyciek rozmowy na takim poziomie mało realny. Jednak to video ma już ponad 3 miliony odsłuchań.
Jak możemy bronić się przed dezinformacją?
Przede wszystkim nie należy bezmyślnie powielać niezweryfikowanych informacji. Sensacyjne treści i tytuły w mediach społecznościowych są zaprojektowane tak, by grać na emocjach – a jeśli damy się im ponieść, dużo trudniej będzie trzeźwo ocenić sytuację, zweryfikować dane czy poszukać innych źródeł informacji. Warto także przyglądać się profilom zamieszczającym tego typu treści. Czy to prawdziwe osoby? A może fałszywe profile, które powstały tydzień temu? Jeśli podejrzewamy, że dana osoba nie jest tym, za kogo się podaje, warto to zgłosić. Operatorzy portali serwisów społecznościowych mają dużo większe możliwości weryfikacji.
Nie wiesz co udostępniać? Polecaj treści agencji fact-checkingowych, takich jak polski Demgagog lub europejskie EuvsDisinfo. Jeśli nie możesz danych treści zweryfikować, to ich nie udostępniaj. Pomyśl, jaką reakcję wśród ludzi wywoła ten news. Przykładowo: jeśli ktoś teraz puści „newsa”, że w aptekach brakuje leków przeciwbólowych, to co zrobią ludzie? Ruszą do sklepów, na stacje benzynowe lub do aptek internetowych, by wykupić resztki leków przeciwbólowych. Panic-buying jest zjawiskiem, które dobrze było widać podczas pierwszych fali COVID-19. A przecież dobrze wiemy, że hurtownie systematycznie nadrabiają braki w zaopatrzeniu i jeśli w jednej aptece czegoś brakuje, to nie oznacza, ze tak sytuacja wygląda we wszystkich aptekach w Polsce.
Jakie są wiarygodne inicjatywy wobec dezinformacji?
Ostatnio pojawiło się też wiele inicjatyw, mających na celu wykrywanie i nagłaśnianie przypadków dezinformacji. Jedną z nich jest zorganizowana przez NASK akcja #WłączWeryfikację. Z kolei Fundacja Panoptykon przygotowała szczegółowy poradnik „Stop dezinformacji”. Polecamy też konta EuvsDisinfo w języku angielskim, oraz Demagog w języku polskim. Te konta nie tylko pokazują co było fake newsem, ale także w jaki sposób te fake newsy zostały spreparowane i co mają na celu.
Jakim portalom możemy zaufać?
Przede wszystkim sprawdzonym redakcjom i agencjom prasowym, jak np. Agencja Reuters czy Associated Press, które mają odpowiednie doświadczenie, zasoby i zespół odpowiedzialny za weryfikację wiadomości. Skąd nie czerpać? Z przepełnionych emocjami i niezweryfikowanych kont w social media. Jeśli jakiś news pojawi się na Telegramie, to Reuters i Associated Press z pewnością go zweryfikują i, jeśli okaże się prawdą, podadzą dalej.
Jak możemy zabezpieczyć swoje dane w sieci? Jak są dobre praktyki?
Czy w świecie rzeczywistym dajemy obcym osobom nasz dowód osobisty, paszport lub klucze do domu do ręki? Nie. Tak samo nie powinniśmy robić w świecie wirtualnym z naszymi danymi lub dostępem do komputera.
Od początku wojny w Internecie pojawiło się wiele stron, które zbierają informacje o osobach mogących udzielić schronienia uchodźcom i proszą o podanie danych oraz numeru telefonu. Kolejne grupy na Faceboku ochoczo podają linki do arkuszy Google, w których zbierane są informacje o możliwościach lokalowych, adresach i numerach telefonów, tych samych, z których korzysta się do weryfikacji konta w banku. Powstaje więc dokładna baza danych na temat osób niosących pomoc i samych uchodźców dostępna dosłownie dla każdego. Być może te informacje posłużą do organizacji pomocy dla rodzin ukraińskich, ale mogą też zostać sprzedane albo wykorzystane w inny sposób.
Oprócz tego wiele osób bez żadnych podejrzeń otwiera linki do zbiórek na rzecz Ukrainy, które znajduje w Internecie lub otrzymuje od nieznanych nadawców. Bardzo łatwo w ten sposób pobrać zainfekowane oprogramowanie na swój komputer lub telefon. Podziwiamy działalność haktywistów z grupy Anonymus i śmiejemy się, gdy wykradają dane z rosyjskich ministerstw, jednak sami nie robimy nic, by zabezpieczyć własne dane.