Partnerem strategicznym Homodigital.pl jest
27 października 2021

Facebook, Instagram, Twitter, TikTok… – czy ktoś to jeszcze kontroluje?

Algorytm ponad wszystko, a potem totalny chaos i brak kontroli nad tym jak działają serwisy społecznościowe. To może się przerodzić w poważny problem wizerunkowy, nie mówiąc o kwestiach prawnych i regulacyjnych. Walka o zysk dla inwestorów jest ważna, ale wszelkie zaniechania generują problemy w przyszłości. Tymczasem szefowie firm technologicznych zdają się błądzić w ciemnościach, oddając władzę w „ręce” algorytmów.

Algorytm ponad wszystko, a potem totalny chaos i brak kontroli nad tym jak działają serwisy społecznościowe. To może się przerodzić w poważny problem wizerunkowy, nie mówiąc o kwestiach prawnych i regulacyjnych. Walka o zysk dla inwestorów jest ważna, ale wszelkie zaniechania generują problemy w przyszłości. Tymczasem szefowie firm technologicznych zdają się błądzić w ciemnościach, oddając władzę w „ręce” algorytmów.

Instagram wierzchołkiem góry lodowej

Ostatnie dwa tygodnie to codzienne grillowanie przez amerykańskie i światowe media znanych serwisów społecznościowych. Dostało się przede wszystkim Facebookowi. Sygnalistka Frances Haugen za pośrednictwem publikacji w Wall Street Journal obnażyła podejście szefów Facebooka do negatywnych badań na temat swojej firmy o czym więcej przeczytacie w tym tekście. 

Zaniechania w sprawie Instagrama to nie jedyny grzech Facebooka. Kolejną sprawę opisał m.in. Reuters.  Okazało się, że pięciu pracowników firmy postanowiło podzielić się wiedzą na temat, jak to największy serwis społecznościowy martwi się o dezinformację, hejt czy niewłaściwe treści publikowane na serwisie. Nie mając skutecznych narzędzi, nie potrafi tego kontrolować.

Facebook walczy z dezinformacją? Raczej z prawdą


Rohinjowie padli ofiarą… Facebooka?

Dziennikarze Reutersa dotarli do dokumentów, z których wynika, że ​​Facebook wiedział, że nie ma wystarczającej liczby pracowników. Takich, którzy posiadają zarówno umiejętności językowe, jak i wiedzę o lokalnych wydarzeniach, potrzebną do identyfikowania budzących zastrzeżenia postów użytkowników w wielu krajach rozwijających się. Chodzi m.in. o Birmę, gdzie trwa dramat mniejszości etnicznej Rohinjów. W dużej mierze nakręcany przez media społecznościowe.

Zapewne wiele osób zdziwi się, że tak duża firma jak Facebook nie zadała sobie trudu, aby cokolwiek z tym zrobić. Oczywiście, że jakieś działania były podjęte. Niestety zdaniem mediów wprowadzenie nowego algorytmu, który miał nad tym czuwać, okazało się bezowocne. Tymczasem w Birmie ginęli ludzie. W 2018 r. eksperci ONZ badający brutalną kampanię zabójstw i wypędzeń przeciwko muzułmańskiej mniejszości Rohinja w Birmie stwierdzili, że Facebook był szeroko wykorzystywany do szerzenia mowy nienawiści wobec nich.

Sprawny algorytm może być niebezpieczny

Czemu tak się stało? Odpowiada za to chęć usprawnienia systemu przedstawiania treści, tak aby były one bardziej spersonalizowane dla konkretnej osoby czy grupy osób. Oczywiście jednocześnie Facebook wprowadził algorytmy automatycznie moderujące treści. Problem w tym, że radziły one sobie jako tako w obszarze anglosaskim. W przypadku dialektów birmańskich to nie działało. Nie sprawdziło się wykorzystanie algorytmów przesiewowych, czy inaczej klasyfikatorów, o których tak często opowiadają przedstawiciele firmy. W powiązaniu z algorytmem podsuwającym „interesujące” i „preferowane” informacje stanowiły one zabójczą mieszankę. Prawdopodobnie jeszcze w 2020 roku w Birmie algorytmy moderujące mowę nienawiści były pod tym kątem całkowicie nieskuteczne. A pozostaje jeszcze kwestia innych zaogniających się konfliktów i miejsc na świecie jak Jemen, Etiopia czy obszar działa państwa islamskiego.

Serwis staje się narzędziem do walki

Takie przykłady przerzucania piłeczki pomiędzy dziennikarzami stawiającymi zarzuty a przedstawicielami Facebooka można mnożyć. Opisywany jest problem, pojawiają się dokumenty i zeznania byłych pracowników, a Facebook informuje, że ma algorytmy i wszystko działa. Faktem jest, że w części państw one się sprawdzają. Co prawda Facebook nie informuje, ile treści niebezpiecznych dla USA, Kanady czy UE blokuje rocznie, ale z pewnością są to znaczące liczby. Być może nawet ratują ludzkie życie czy mienie. Niestety te same algorytmy wykorzystywane w Indiach, Birmie, Etiopii czy Bliskim Wschodzie nie działają. Tam Facebook jest narzędziem do walki. Jeśli już nie do zabijania wprost, to do podsycania nienawiści, która do niego prowadzi. Bez swojej winy, ale przy udziale narzędzia, jakim jest serwis internetowy.

Polski wątek w „Facebook papers”

Dokumenty i zeznania złożone przez Frances Haugen wskazują, że nowy algorytm Facebooka może być odpowiedzialny także za „społeczną wojnę” na tle politycznym w Polsce. Zmiana sposobu komunikacji wymusiła radykalizację postów, aby były bardziej skuteczne i docierały do większej ilości czytelników. W materiale NBCnews.com mowa jest o „jednej partii z Polski”, która zdecydowała się zmienić narrację w swoich postach na zdecydowanie negatywną, na poziomie 80-20 procent. Wcześniej ten współczynnik  wynosił 50-50. Jak to wyglądało dalej?

Zdaniem analityków rzeczywiście szereg postów mających na celu zbliżenie przyjaciół i członków rodziny w znaczący sposób, często miał odwrotny skutek. Wystarczyło, że dwie osoby z rodziny interesowały się np. wątkiem wyborów, zmian w sądownictwie, czy protestów. Tak więc algorytm podrzucał im te treści, szczególnie jeśli publikował je ktoś bliski, nie zważając na charakter tej publikacji, Tym samym osoby z jednej rodziny czy kręgu znajomych mogły szybko poznać swoje polityczne zapatrywania, a następnie odpowiednio zareagować na ten czy inny post. Facebook w oświadczeniach medialnych  odrzuca swój bezpośredni wpływ na polaryzację społeczeństwa. Tymczasem jeśli spojrzymy jak wyglądały ostanie 2-3 lata w Polsce, ile hejtu wylało się w sieci, oraz jak to wpłynęło na nasze relacje „przy świątecznym stole”, to sprawa nie wygląda już tak wesoło.

A wy ilu znajomych usunęliście z Facebooka za niepoprawne komentarze czy publikacje?

Algorytm niewiedzy i bezradności

O sile własnego algorytmu przekonał się niedawno boleśnie Twitter.  Dla wielu osób to medium, które  w zasadzie jest bardziej  lewicowe i liberalne. Tyle że niekoniecznie wie o tym algorytm, który Twitter wprowadził, aby nieco usprawnić zarządzanie treściami, jakie pojawią się użytkownikom – informuje BBC.

A skoro nie wiedział, to zrobił po swojemu. Efekt? Twitter właśnie przeprowadził badanie, w jaki sposób jego algorytm rekomenduje użytkownikom treści polityczne. Okazało się, że trochę inaczej, niż świadczy o tym polityka serwisu.

Przeanalizowano miliony tweetów partii politycznych i użytkowników udostępniających treści z serwisów informacyjnych w siedmiu krajach na całym. Okazało się, że główne partie i ugrupowania prawicowe cieszyły się wyższym poziomem „wzmocnienia algorytmów” w porównaniu z ich odpowiednikami z lewicy. Powodem może być np. różna strategia publikowania treści przez partie i publicystów prawicowych i lewicowych.

TikTok płynie na fali

O ile Facebook i Twitter jako tako jeszcze znają swoje błędy i prowadzą badania – choć nie zawsze o tym informują opinię publiczną – to TikTok jeszcze jest na początku tej drogi. Jak donosi The Guardian kłamstwa i teorie spiskowe dotyczące Covid-19, które zgromadziły miliony wyświetleń, są dostępne powszechnie, także dla nastolatków i małych dzieci. Co więcej, wiszą tam od miesięcy, a serwis nic z tym nie robi. W tym przypadku algorytm TikToka musi być bardzo liberalny lub, jak to standardowo bywa w serwisach społecznościowych, po prostu nie działa.

Oczywiście, najlepiej byłoby wszystko zrzucić na technologię, na to, że algorytmy sztucznej inteligencji nie podołały zadaniu, jakie przed nim postawili spece od IT w Google,  Facebooku, Twitterze. Niestety prawda może być bardziej bolesna.  Czy nie jest tak, że zostaliśmy wszyscy trochę oszukania przez Big Tech. Dano nam ogień i powiedzianą, ze nie parzy. Zaufaliśmy w 100 procentach, że produkt końcowy, jakim jest serwis społecznościowy to regulowany obszar, na którym zapewnione będzie nam bezpieczeństwo. Mniej więcej jest to taki układ jak choćby umowa społeczna z państwem, że te za pomocą legislacji, sądów i policji będzie nas chronić. Rezultat mniej więcej znamy.

Co przyniesie metaverse?

Wydaje się jednak, że jest to zbytnie uproszczenie. Nie można pozwolić, aby serwisy społecznościowe w imię „poprawienia” wyświetlanie u preferencji postów wprowadzało rozwiązania godzące w ludzkie życie, zdrowie i mienie. Firmy technologiczne, nie mogą umywać rąk i twierdzić, że skoro ich działanie jest nieskuteczne, to przepraszamy i koniec tematu. W przeciwny razie będziemy mieli do czynienia z bardzo niebezpiecznym zjawiskiem.

Jeśli stoimy na progu firmowanego przez Zuckerberga metawersum, to tylko wyobraźnia ogranicza nas przed stwierdzeniem, co może się wydarzyć. Jeżeli Facebook lub inne firmy wprowadzą algorytmy znane ze swoich serwisów  do tego nowego Internetu, będącego swoistym poligonem doświadczalnym, to trudno będzie już zapewnić jakiekolwiek  bezpieczeństwo dla użytkownika.

Musimy zmienić Big Tech i odzyskać władzę nad technologią! Rozmowa z Davidem Polgarem

Jeśli prawdą jest to, co powiedział Ashraf Zeitoon, były szef Facebooka ds. polityki na Bliskim Wschodzie i Afryce Północnej, że podejście firmy do globalnego wzrostu jest „kolonialne”, koncentrując się na monetyzacji bez środków bezpieczeństwa, to aż strach jak będą działać algorytmy pod znakiem „metaverse”.


Tagi:
Home Strona główna Subiektywnie o finansach
Skip to content email-icon