15 stycznia 2024

Dezinformacja w wyborach to coraz powszechniejsze zjawisko. Jak się przed tym uchronić? [WYWIAD]

Manipulacja z wykorzystaniem liczb; siatki kont w mediach społecznościowych powiązane z partiami politycznymi oraz próby wpływu spoza terytorium Polski – to główne elementy działań dezinformacyjnych w trakcie kampanii wyborczej do parlamentu w 2023 w Polsce – mówi Givi Gigitashvili, badacz z amerykańskiego think-tanku Atlantic Council. Dezinformacja w wyborach będzie coraz częstsza. Ekspert doradza, jak się przed nią uchronić.

Czytasz pierwszy z cyklu wywiadów o dezinformacji w kluczowych dziedzinach życia społecznego. Z tego wywiadu dowiesz się, jakie są zagrożenia związane z fałszywymi informacjami nt. polityki i polityków, jak fake newsy i kampanie dezinformacyjne mogą wpłynąć na decyzje wyborców i jakie metody inżynierii informacyjnej były stosowane w czasie ostatnich wyborów parlamentarnych w Polsce.

Andrzej Kozłowski (HomoDigital): Jakie są Pana główne wnioski z obserwacji działań dezinformacyjnych wymierzonych w wybory parlamentarne w Polsce?

Givi Gigitashvili (Atlantic Council): Dezinformacja była nieodzownym elementem kampanii politycznej i występowała w działaniach wszystkich partii politycznych. Elementem wyróżniającym była manipulacja z wykorzystaniem liczb przez partie polityczne. Poza tym mieliśmy również próby wpływu spoza terytorium Polski, które miały negatywnie wpłynąć na wyborców i ich zachowania polityczne. Zaobserwowaliśmy też siatki działające w mediach społecznościowych, które były powiązane z partiami politycznymi i manipulowały opinią publiczną oraz zatruwały przestrzeń informacyjną. Łamały też regulaminy platform społecznościowych.

Jakie były głównie narracje dezinformacyjne używane przez wewnętrznych, jak i zewnętrznych aktorów? 

Możemy podać przykłady narracji na temat potencjalnego zagrożenia dla Polski ze strony grupy Wagnera na granicy z Białorusią. Zaobserwowaliśmy również niezweryfikowane informacje na temat liczby wiz wydanych przez polskie ambasady. Jest to właśnie przykład tego, o czym mówiłem, czyli manipulacji liczbami. Wykryliśmy również narracje mówiące o tym, że wybory zostaną sfałszowane i ludzie nie powinni ufać ich wynikom. Te narracje były dodatkowo wzmacniane np. przez białoruskich aktorów państwowych oraz ich kanały w mediach społecznościowych. Głównym celem było wzbudzanie niepokoju w polskim społeczeństwie, podważenie zaufania do instytucji publicznych i procesów demokratycznych. Przykładowo, mieliśmy również prorosyjskie głosy w Polsce, które były dodatkowo wzmacniane przez rosyjskie i białoruskie media.

Mieliśmy też do czynienia z nadużyciami wobec infrastruktury, czego przykładami były poważne ataki DDoS dokonane przez rosyjskich hakerów, którzy publicznie informowali o swoich planach i następnych celach ataków. Przedstawiali również szerszy kontekst tych ataków poprzez kanały na Telegramie. To były naprawdę ataki o dużej skali, które miały miejsce w sierpniu i wrześniu 2023 r. Wykryliśmy ponad 15 grup uczestniczących w tych atakach. Gówna grupa w tym ekosystemie opublikowała 4 września tekst, który był adresowany do młodych ludzi. Zawierał on informacje, że zbliżają się wybory i czas skończyć z rusofobicznym rządem.

Wykryliśmy również wzbudzanie zaangażowania wokół fałszywych informacji. Wiele prac badawczych na temat polskiej przestrzeni informacyjnej stwierdziło, że konta w mediach społecznościowych, szczególnie na Telegramie, prowadzone w języku polskim i stwarzające pozory, że ich autorami są Polacy, są tak naprawdę prowadzone przez zewnętrznych aktorów.

Oczywiście mieliśmy również dobrze znane z innych kampanii rosyjskich wymierzonych w wybory operacje typu hack-and-leak. Należy jednak podkreślić, że nie zauważyliśmy żadnych udanych operacji tego typu w okresie przedwyborczym. Jedyne, co zauważyliśmy, to ponowne wykorzystanie materiałów ze starszej operacji typu hack-and-leak. To jest bardzo interesujący przykład, nad którym warto się pochylić. Jedna z partii politycznych w Polsce zaczęła wzmacniać przekaz zagranicznych aktorów poprzez publikację skradzionych materiałów w 2021 r. Mam tu na myśli włamanie na prywatną skrzynkę ministra Michała Dworczyka i kradzież dokumentów z tego adresu. Treści te zostały wykorzystane przez Platformę Obywatelską w mediach społecznościowych. Jest to problematyczne ze względu na dwie sprawy.

Po pierwsze operacja wymierzona w ministra Dworczyka była autorstwa zewnętrznego aktora UNC1151/Ghostwriter. Poprzez publikowanie wykradzionych materiałów dajemy dodatkową widzialność dla atakującego, zachęcając go do dalszego działania. Po drugie nikt nie wie, jaki zbiór tych dokumentów jest autentyczny, a jaki został stworzony przez atakujących. W mojej opinii Platforma Obywatelska zignorowała fakt, że materiały pochodzące ze skrzynki ministra Dworczyka, a wykorzystane w ich kampanii wyborczej, były nielegalne i wypuszczone przez zagranicznego aktora. Należy też podkreślić, że nie oznacza to, że PO miała jakiekolwiek związki z aktorami, którzy stali za włamaniem na skrzynkę pocztową ministra Dworczyka. Główna partia opozycja wykorzystała te wycieki, aby uderzyć w swojego politycznego rywala przed wyborami.

Przykład włamania na skrzynkę Michała Dworczyka pokazuje również, że „hakowanie wyborów” to długotrwały proces, który zaczyna się wcześniej. Mówimy o przypadku, który miał miejsce 2 lata temu, a wciąż jest wykorzystywany. Głównym problemem dla mediów w przypadku takich sytuacji jest to, jak informować o takich wyciekach. Kiedy w 2016 r. w czasie kampanii wyborczej w Stanach Zjednoczonych doszło do wycieków informacji, jednym z głównych problemów był brak jasnych wytycznych w mediach, jak o tych wyciekach komunikować. Ten sam problem napotkały polskie media na samym początku afery Dworczyka i niestety nie relacjonowały jej w odpowiedni sposób. Nie zademonstrowały odpowiedniego standardu w radzeniu sobie z wrażliwymi dokumentami. I niestety, w trakcie kampanii wyborczej, Platforma Obywatelska – oczywiście mogła to być każda inna partia polityczna – nie przywiązywała odpowiedniej wagi do tego, że publikowane materiały powstały za granicą z odpowiednią intencją. To pokazuje również, że partie polityczne mogą być kuszone do użycia takich wycieków do realizacji celów politycznych. Pokazuje to ogromny problem w odpowiednim opisywaniu i przedstawianiu takich wycieków danych strategicznych.

Zidentyfikowaliśmy również znaczne użycie treści o negatywnym charakterze, których celem było wzbudzanie kontrowersji i pogłębianie podziałów w społeczeństwie. Były to działania w dużej mierze podejmowane przez zagranicznych aktorów. Takim przykładem jest wypowiedź białoruskiego prezydenta Aleksandra Łukaszenki na temat grupy Wagnera i jej zamiarów podróży do Polski. Ta narracja później została wsparta fałszywymi zdjęciami żołnierzy grupy Wagnera niedaleko granicy z Polską. W ten sposób próbowano wysłać wiadomość do Polaków, że jeśli będą dalej wspierać Ukrainę w jej walce z rosyjską inwazją, Grupa Wagnera może również stworzyć problemy dla Polski. Celem było tu zastraszenie społeczeństwa i zasianie strachu i niepewności przed wyborami. Mieliśmy również przypadki osób, które w Polsce przyklejały nalepki na słupach, co również miało wymiar propagandowy. Zostały one później aresztowane przez ABW.

Zaobserwowaliśmy również zwiększającą się liczbę osób z Bliskiego Wschodu, które nielegalnie przekraczały granice pomiędzy Polską a Białorusią. Największa liczba prób odbyła się latem 2023 r. Przedstawiciele polskich władz oraz eksperci przedstawiali to jako kolejny przykład białoruskiego ataku hybrydowego, tym razem w kontekście wyborów. Omawiając ten przypadek, zauważaliśmy również wzmożoną dyskusję na temat filmu Agnieszki Holland „Zielona granica”, który jeszcze bardziej wzmocnił polaryzację. Temat ten był wykorzystywany przez podmioty szerzące dezinformację aż do wyborów parlamentarnych. Wynikało to też z tego, że nie było jasnego konsensu, jak rozwiązać ten problem.

Znaleźliśmy również stronę, która wygląda na polski portal informacyjny, ale dowody techniczne wskazują na jej zagraniczne pochodzenie – w tym przypadku białoruskie. Zawartość strony jest bardzo mocno rozpowszechniana przez podmioty białoruskie np. na Telegramie.

Jaki był wpływ tych operacji. Czy możemy to w ogóle zmierzyć?

Bardzo trudno zmierzyć wpływ takich operacji i wiele zależy od przyjętej metodologii. W mojej opinii w środowisku ekspertów oczekiwano przed wyborami w Polsce, że będzie większy udział operacji wpływu przeprowadzony z zagranicy oraz większa ilość materiałów dezinformacyjnych. Takich działań prowadzonych przez zagraniczne podmioty było stosunkowo niewiele i miały one niewielki wpływ. Trudno powiedzieć, dlaczego tak się stało i dlaczego białoruskie i rosyjskie podmioty nie zaangażowały się na większą skalę. Jedną z przyczyn takiego zachowania może być to, że są one zaangażowane w prowadzenie innych operacji, ale też może to być kwestia tego, że ich wcześniejsze kampanie wymierzone w Polskę nie przyniosły sukcesów. Dlatego też być może nie chcieli intensyfikować swoich działań przed wyborami.

Opracowaliście trzy materiały na temat dezinformacji w wyborach parlamentarnych w Polsce i jeden z nich był poświęcony aktorom wewnętrznym. Zidentyfikowaliście tam siatkę kont powiązanych z Platformą Obywatelską. Dlaczego tylko jedna partia – Platforma Obywatelska – została tam wspomniana. Dlaczego nie ma informacji o innych partiach politycznych?

To nie tylko podmioty afiliowane z Platformą Obywatelską. Meta również usunęła sieć, która promowała polityków Zjednoczonej Prawicy, przykładowo Łukasza Mejzę.

Jeśli chodzi o siatkę kont związanych z Platformą Obywatelską, była to największa siatka zaobserwowana w polskich mediach społecznościowych. Składała się z 29 stron i obejmowała prawie 2 miliony obserwujących. Jednym z problemów z tą siecią jest fakt, że ukrywa ona swoje prawdziwe intencje, skąd dana treść pochodzi oraz ukrywa połączenia pomiędzy stronami. W moich badaniach starałem się wykazać, jak te strony łamią regulamin Mety.

Pierwszą złamaną zasadą jest cross-posting (postowanie krzyżowe), kiedy różne strony się łączą i postują krzyżowo filmy wideo. Mieliśmy bardzo mocne dowody techniczne, że ludzie, administrując stronami, są ze sobą połączeni. Możemy założyć, że te samy osoby zarządzają różnymi stronami albo że różne osoby nimi zarządzają, ale otrzymały one pozwolenie, żeby postować krzyżowo filmy. Kiedy rozpoznamy, że filmy wideo są postowane krzyżowo, bardzo łatwo jest potem wykryć sieć powiązań. Głównym, centralnym kontem był tutaj Sok z Buraka, który jest dobrze znanym aktorem. W swoich badaniach chciałem zobaczyć, jak duża jest sieć zbudowana wokół niego i jak Sok z Buraka jest połączony z innymi znaczącymi kontami.

Druga zasada złamana przez sieć to nieautentyczne udostępnianie. Te 28 stron jest połączonych z Sokiem z Buraka, ponieważ chcą dostać dodatkową liczbę zaangażowanych podmiotów oraz podglądów i publikują identyczne treści, ale nie są pokazane ich wzajemne połączenia.

Trzecią zasadą, która została przez nich pogwałcona, jest to tzw. skoordynowane nieautentyczne zachowanie. Niektóre ze stron miały nazwę i opis, które nie odzwierciedlały tego, co postulują. W ten sposób wprowadzali oni w błąd ludzi oraz nie ujawniali, kim są i co naprawdę robią. Przykładowo znaleźliśmy stronę „Coronavirus Alert „, która początkowo w 2020 r. publikowała informacje o koronawirusie i nie było w tym nic kontrowersyjnego. Następnie w pewnym momencie zmieniła zdanie i zaczęła publikować komunikaty popierające PO i zwalczające PiS. Mieliśmy również strony (np. „Warszawa się śmieje), które na pierwszy rzut oka wydają się czysto rozrywkowymi stronami, ale w rzeczywistości nie mają z tym nic wspólnego i publikują informacje identyczne ze wspomnianą wcześniej stroną „Coronavirus Alert”. Mieliśmy też stronę, która zgodnie z nazwą powinna koncentrować się na polskich liniach lotniczych, ale znowu – publikowano komunikaty popierające PO i zwalczające PiS. Jak widać, strony te nie były transparentne na temat tego, kim są i co robią.

Czy próbował Pan kontaktować się z PO i uzyskać ich komentarz na temat wyników Pana badań?

Nie przewidujemy w ramach naszej aktywności badawczej rozmów z partiami politycznymi. Co więcej, pytanie, na które nie mogliśmy odpowiedzieć w badaniu, brzmi, czy osoby odpowiedzialne za prowadzenie tych sieci kont pracują dla PO czy działają niezależnie od partii i tylko wspierają jej działania. Jest jednak jeden kluczowy dowód: trzy strony, które są połączone z PO, umieszczały posty krzyżowe wideo z Soku z Buraka i umieszczały również te same materiały wideo, co strony zrzeszone w badanej przeze mnie sieci. Jedna ze stron była oficjalną stroną lokalnego stronnictwa PO, dwie inne były stworzone dla tych, którzy wspierają PO. Istnieje taka możliwość, że są one powiązane z kontem Sok z Buraka, ale również może być inaczej. Innym słowy – jest czymś oczywistym, że co najmniej jedna strona na Facebooku Platformy Obywatelskiej jest połączona z wyżej wspomnianą siecią kont. To, czego nie wiemy, to – czy ludzie, którzy zarządzają siecią, są bezpośrednio związani z Platformą Obywatelską.

Istnieje możliwość, że to zwolennicy PO są administratorami tych stron zrzeszonych w sieci, mają powiązania z osobami odpowiedzialnymi za prowadzenie stron na Facebooku PO i razem współpracują. W badaniach prowadzonych w latach 2019 i 2020 stwierdziliśmy, że ludzie stojący za kontem Sok z Buraka pracują dla warszawskiego ratusza oraz że mogą otrzymywać pieniądze od PO. Nie zauważyłem jednak żadnej reakcji ze strony Soku z Buraka, co jest dla mnie zastanawiające, ponieważ wiele mediów zainteresowało się naszymi badaniami.

Z tego, co Pan mówi, PO jawi się tutaj jako ten gorszy gracz, a co z innym uczestnikami wyborów, w szczególności PiS?

Zdecydowanie nie możemy powiedzieć, że tylko PO dokonywało takich działań. PiS ma również wiele na sumieniu. Np. rozpowszechnianie negatywnego sentymentu nt. wyborów. Wielu przedstawicieli tej partii posługiwało się niesprawdzonymi, niezweryfikowanymi twierdzeniami. Po pierwsze, sformułowali pytania w referendum w taki sposób, aby przestawić opozycję w negatywnym świetle, a PiS jako jedynego obrońcę Polski i Polaków. Przykładowo, PiS próbował zagrać na antyimigranckich sentymentach przed wyborami, a liderzy tej partii rozpowszechniali fałszywe informacje, że UE zmusi Polskę do przyjęcia tysięcy nielegalnych imigrantów z Afryki i Bliskiego Wschodu w ramach mechanizmu przymusowej relokacji. Jest to nieprawda. PiS również propagował fałszywą narrację, że Niemcy stanowią zagrożenie dla Polski i dlatego Berlin chce zmienić rząd w Warszawie, na ten rządzony przez Donalda Tuska, który znowu uczyni z Polski niemiecką kolonię. Takie stwierdzenia miały podważyć reputację Donalda Tuska i wywołać negatywny sentyment do niego i jego partii. PiS również sugerował, że Tusk chce zniszczyć barierę na granicy polsko-białoruskiej i otworzyć granicę dla nielegalnych migrantów. Liderzy PO nigdy jednak nie deklarowali takich zamiarów. Członkowie PiS również powielali nieprawdziwe, wyolbrzymione informacje na temat stopy bezrobocia podczas rządów Donalda Tuska. To oczywiście nie wszystkie fałszywe informacje rozpowszechniane przez PiS i jego zwolenników.

Porównując działania w polskiej sferze informacyjnej w trakcie wyborów parlamentarnych z innymi państwami – czy możemy znaleźć jakieś podobieństwa?

Jeśli mówimy o zagranicznych próbach wpływu i porównujemy to z wyborami w USA, Francji czy Niderlandach, to zdecydowanie możemy znaleźć wspólne cechy. Przede wszystkim trzeba jednak podkreślić, że państwa zwiększają swoją odporność na próby wpływu z zagranicy. Jedna z największych prób ingerencji w wybory miała miejsce w USA w 2016 r. i była punktem zwrotnym w historii takich operacji, ale też pozwoliła na wyciągnięcie wielu wniosków, które pomogły innym państwom lepiej się przygotować. Dlatego też powtórzenie wyczynu z 2016 r. jest prawie niemożliwe. Należy również pamiętać, że jednym z głównych aktorów zaangażowanych w ingerencje wyborcze była Agencja Badań Internetowych należąca do Jewgienija Prigożyna. Jednak po jego śmierci jego imperium medialne uległo rozpadowi i nikt nie wie, co stało z Agencją. W przypadku wyborów w Polsce widzieliśmy zaangażowanie aktorów białoruskich zarówno w mediach społecznościowych (głównie Telegram), jak i w mediach państwowych. Skupiały się one na rozpowszechnianiu materiałów z negatywnym sentymentem na temat wyborów. Podsumowując, od 2020 r. widzimy, że ingerencje w wybory są coraz mniejsze, a ich rezultaty zdecydowanie skromniejsze niż wcześniej. Zewnętrzni aktorzy mają problemy, żeby przeprowadzać takie operacje, a państwa UE stały się o wiele mniej podatne na ich działania.

W jaki sposób tworzycie swoje raporty? Jaką macie metodologię?

Nasze raporty to efekt ciągłego monitorowania przestrzeni informacyjnej z wykorzystaniem różnych narzędzi pozwalających na śledzenie aktywności w mediach społecznościowych. Możemy dzięki temu dostrzec szerszy kontekst. Przykładowo wybieramy pewne słowa-klucze, których używamy w narzędziach monitorujących media społecznościowe i jesteśmy w stanie wykryć wiele kont publikujących te same treści. To jest pewien sygnał, że strony mogą być ze sobą połączone i tworzyć sieć. Podobnie sytuacja wygląda z hashtagami. Obserwując konta, które posługują się tym samym hashtagiem, jesteśmy w stanie stworzyć mapę kont, żeby zobaczyć, jak są one połączone i ze sobą współpracują. Kiedy mówimy o próbach wpływu dokonywanych przez zagranicznych aktorów, musimy znać kilka prowadzonych przez nich kont i ciągle je monitorować pod względem publikowanych treści. Jeśli chodzi o białoruskich aktorów, to mam przykładowo konta na Telegramie, które stale monitoruję, ale również robię to w odniesieniu do kont zidentyfikowanych w trakcie poprzednich badań. Narzędzia monitorowania mediów społecznościowych są bardzo pomocne, jak również narzędzia informatyki śledczej pozwalające na wyśledzenie aktywności na stronach internetowych.

Jakie działania mogą podjąć użytkownicy internetu, aby uniknąć dezinformacji i przekonać się, czy ona nie wpłynęła na ich percepcję rzeczywistości?

Powinni oni dokonać analizy, kiedy napotkają podejrzane treści w internecie, zwracając uwagę na źródło ich pochodzenia oraz sprawdzając inne źródła informacji. Treści, które nie opierają się na faktach, atakują polityków czy mają na celu zaszkodzenie reputacji instytucji lub osoby, powinny zostać uznane za podejrzane i wymagające szczególnej uwagi. Treść może być też podejrzana, gdy wiele kont w mediach społecznościowych publikuje dokładny tekst bez ujawniania powiązań.

Raporty, o których mowa w wywiadzie, dostępne są: pierwszy pod tym linkiem, a drugi pod tym linkiem.

 Źródło zdjęcia: Atlantic Council

Home Strona główna Subiektywnie o finansach
Skip to content email-icon