Quo vadis, homo digital? Nowe technologie są świetne, z wyjątkiem tych przypadków… kiedy wcale nie są. Wybrałam pięć technologicznych trendów, które mają zdecydowanie negatywny wpływ na nasze życie. Jakie trendy technologiczne mogą nam poważnie zaszkodzić?
Przez ostatnią dekadę technologia rozwijała się w bardzo szybkim tempie i nic nie wskazuje na oznaki spowolnienia. Ale to wcale nie znaczy, że cały postęp jest dobry. W rzeczywistości niektóre z trendów technologicznych mogą mieć poważne konsekwencje dla społeczeństwa i każdego z nas. Nawet jeśli nie korzystamy z nich bezpośrednio.
Chociaż całkowite powstrzymanie ewolucji szkodliwych technologii może być bardzo trudne, nadal możesz chronić się przed niebezpieczeństwami futurystycznych trendów technologicznych. Jak? Rozumiejąc, jak one działają.
FinTechy namawiające do zadłużania się
FinTechy, czyli firmy świadczące usługi finansowe za pośrednictwem Internetu, powstały, aby ułatwić zarządzanie własnymi finansami i dać nam władzę nad przepływem gotówki.
Tyle teorii, realnie wiele z nich zachęca do zadłużania się i życia ponad stan. Kup, nawet jeśli wciąż czekasz na pensję, kup, nawet jeśli masz zero na koncie, kup nawet jeśli Cię nie stać. A to już bardzo niebezpieczna gra. Zwłaszcza kiedy marketing takich spółek jak szwedzka Klarna (ale też Clearpay, Laybuy, Very, Afterpay, Sezzle, Quadpay czy Perplay) kieruje się głównie do młodych ludzi. Jak to wygląda w praktyce? Robiąc zakupy online w sklepach takich jak np. Asos, oprócz dokonania przelewu czy użycia karty, otrzymujemy opcję zamówienia towaru bez konieczności dokonania natychmiastowej opłaty.
Konsumpcjonizm rozhulał się jak nigdy wcześniej. Płatności typu „kup teraz, zapłać później” osiągnęły 2,7 mld funtów w samym tylko 2020 r. (wg „The Guardian”). A przecież żyjemy w czasach kiedy to młodych najbardziej dotyka kryzys i niepewność jutra. Na rynek pracy wchodzą z ogromnymi kredytami studenckimi, wisi nad nimi kryzys klimatyczny i finansowy, nie mają szans na emeryturę.
Co jeśli opóźniona płatność nawet po 30 dniach nie dochodzi jednak do skutku? Klarna znana jest z wysyłania listów do klientów, zapewniając, że nie mają się czym martwić, a terminy płatności zostały wydłużone. Jednak klientom nie mówi się, że ich ocena kredytowa jest zagrożona z powodu zarejestrowania opóźnionych płatności. Brak przejrzystości w tym procesie może zaszkodzić kondycji finansowej i możliwościom jednostek, zwłaszcza właśnie z tych młodszych grup. I tak, od najmłodszych lat nakręca się spirala zadłużenia…
Przeczytaj także:
Jak wytrwać w postanowieniach noworocznych? Pomoże technologia!
Czy będziemy rodzić sztuczne dzieci? Opowieść o przyszłości maluchów, które dziś kochają smartfony
Gdybyś wiedział jak „dziurawy” jest Internet, pewnie byś z niego nie korzystał
Rozpoznawanie twarzy poza naszą kontrolą
Technologia rozpoznawania twarzy to proces, który umożliwia zidentyfikować lub w inny sposób rozpoznać osobę na podstawie obrazu cyfrowego. Wykorzystuje się ją do dwóch celów: identyfikacji oraz kategoryzacji, gdzie to algorytm przypisuje ludzi do danych kategorii. Technologia wykorzystywana na szeroką skalę, stwarza możliwość wprowadzenia masowego nadzoru biometrycznego. Jak? Dzięki powszechnemu monitoringowi i kamerom przemysłowym. W czym tkwi problem? Nikt z nas nigdy nie wyraził zgody na bycie nagrywanym. Nie mamy też żadnej wiedzy, ani władzy nad tym, jak oraz w jakim celu te obrazy są następnie przetwarzane. Technologia wciąż pełna jest także biasów. Naukowcy z MIT zaobserwowali, iż systemy analizy twarzy łatwiej radzą sobie z rasą białą. W przypadku, kiedy skóra człowieka na zdjęciu jest ciemniejsza, pojawiają się trudności z rozpoznaniem np. płci, nie mówiąc już o rysach twarzy. Oznacza to więc o wiele większe pole do różnego rodzaju błędów i pomyłek.
A że dane są zbierane potwierdza niedawny skandal z aplikacją Clearview AI w roli głównej. Aplikacja dostępna dla służb, policji i wojska, może w sekundę zidentyfikować większość osób widocznych na zdjęciach. Twórcy aplikacji wykorzystali dane i zdjęcia już dostępne w internecie, najczęściej w mediach społecznościowych. Dzięki temu mogą połączyć wizerunek osoby z adresem email, numerem telefonu i innymi danymi. Clearview ma w bazie danych już 3 miliardy zdjęć, jak wynika z raportu New York Times. Jeśli do danych zdobytych poprzez przeczesywanie internetu dodać dane z policyjnych baz danych, to można śmiało zakładać, że służby będą mogły zidentyfikować praktycznie każdą osobę.
Kwestia automatycznego rozpoznawania twarzy zaniepokoiła amerykańskich ustawodawców, którzy przegłosowali ustawę ograniczającą tego typu rozwiązania. W Polsce automatyczne rozpoznawanie twarzy w miejscach publicznych byłoby w tej chwili niezgodne z prawem. Ale czy to znaczy, że nie ma miejsca?
W Chinach nie ma ochrony danych osobowych. Rząd może wprowadzać do systemu rozpoznawania twarzy tyle danych, ile chce, budując olbrzymie zbiory. Z kolei Europejski Inspektor Ochrony Danych (EIOD) uważa, że technologia rozpoznawania twarzy powinna być zabroniona w Europie z uwagi na „głęboką i niedemokratyczną ingerencję” w życie prywatne. Identyfikacja biometryczna została uznana za technologię wysokiego ryzyka, a jej stosowanie w miejscach publicznych będzie w UE zakazane. Wyjątkiem jest walka z przestępczością lub poszukiwanie osób zaginionych, w przypadku których pozwolenie wydaje sąd. I to wydaje się być tym małym kamyczkiem, o który może wyłożyć się cały ten zakaz. Dobrowolne oddanie naszej prywatności jest tylko kwestią czasu.
Autonomiczne drony na misji
Drony, czyli Bezzałogowe Statki Powietrzne, zyskują coraz większą popularność w armiach największych mocarstwach świata i są przez nie stale rozwijane. I choć zdecydowana większość z nich działa na zasadzie pełnej kontroli człowieka, nie jest tajemnicą, że istnieją też modele wysyłane w samodzielne misje.
W marcu 2020 roku turecki autonomiczny dron STM Kargu-2 zaatakował wycofujących się żołnierzy podczas wojny domowej w Libii. Zdarzenie opisał raport Rady Bezpieczeństwa ONZ. Pisma „New Scientist” i „Bulletin of the Atomic Scientists” zinterpretowały dwuzdaniową wzmiankę z 550-stronicowego raportu końcowego Panelu Ekspertów ds. Libii, omawiającego ostatnie dwa lata konfliktu. Opisując klęskę zadaną przez siły rządu w Trypolisie, przy wsparciu Turcji, raport podaje, że „śmiercionośne autonomiczne systemy broni takie jak STM Kargu-2 tropiły i zdalnie atakowały” przeciwnika. Systemy te „zaprogramowano, by atakowały cele, nie wymagając przekazywania danych między operatorem a sprzętem”. Był to pierwszy udokumentowany przypadek ataku autonomicznego drona tego typu. W raporcie wskazano, że dron trzymał się jednej pozycji aż do momentu wykrycia celu. Opisano go jako „powietrzną minę”, która atakuje cel jeśli ten zbliży się na odpowiednią odległość. Atak następuje bez nadzoru operatora drona, a likwidacja celu jest automatyczna.
Drony te mają więc realną zdolność, by działać według schematu „odpalić, zapomnieć i znaleźć”. Scenariusz, w którym maszyny polują na ludzi, już się w Libii zrealizował. Wymyślili go ludzie, a wykonanie misji zlecili sztucznej inteligencji, która wyruszyła w samobójczy morderczy lot. Wizja drona jako autonomicznego bezwzględnego zabójcy właśnie się ziściła.
AI pełna biasów
Największa siła AI jest jednocześnie jej największą słabością. AI uczy się błyskawicznie, niestety często nie tego, co byśmy chcieli. Pełna jest błędów, o których nie wiemy i które odkrywane są dopiero post factum. Dzisiejsze algorytmy AI, podobnie jak ludzie, są podatne na manipulacje. W efekcie przybywa nadużyć wykorzystujących dzisiejsze ograniczenia sztucznej inteligencji. Nie dalej jak w ubiegłym tygodniu dziwna sytuacja spotkała 10-letnią dziewczynkę, która poprosiła Alexę o wyznaczenie jej jakiegoś wyzwania. Sztuczna inteligencja zaproponowała jej popularne wyzwanie z TikToka, polegające na umieszczeniu monety na… częściowo odsłoniętych bolcach ładowarki, umieszczonej do połowy w gniazdku elektrycznym.
Brak transparentności w zakresie funkcjonowania algorytmów sztucznej inteligencji musi budzić obawy. Komisja Europejska przedstawiła projekt nowych regulacji dotyczących wykorzystania tej technologii. Wynika z nich, że Bruksela nie zamierza blokować rozwoju AI, która może być stosowana na przykład w przypadku usprawniania produkcji lub prognozowania zmian klimatycznych. Zastosowanie technologii sztucznej inteligencji zostało podzielone na cztery kategorie ryzyka. Można je przedstawić w formie piramidy. Na szczycie znajdują się technologie niebezpieczne, stanowiące najwęższą grupę, a u jej podstawy technologie stanowiące minimalne ryzyko. Bruksela absolutnie chce zapobiec stosowania AI w zabawkach interakcyjnych dla dzieci, które analizują jego zachowanie i manipulują nimi, zachęcając do nieodpowiednich zachowań. Wyklucza także algorytmy, które określają słabe strony człowieka oraz systemy oceny punktowej obywateli UE. Uff, nie będziemy więc zbierać społecznych punktów jak Chińczycy. Mam jednak wrażenie, że przed nami lata ogromnej tendencyjności AI, zanim nauczymy ją i siebie pozytywnych postaw.
Fake newsy wygrywające z faktami
Psychologowie już od dawna nam mówią, że komunikaty mocno nacechowane emocjonalne skuteczniej skupiają naszą uwagę w gąszczu informacji. Dlatego tak łatwo padamy ofiarami fake newsów. Dziś wiedzą to już nie tylko psychologowie, ale i big techy oraz rządy.
Uciekaliśmy od mediów do Internetu, by wpaść w jeszcze większe informacyjne bagno. Fake newsy są tak skonstruowane, by wywoływać silne emocje – a nasz mózg to bardzo lubi. Wyszukiwarka Google filtruje wyniki, dostosowując je do nas. Podobnie działa Facebook, który personalizuje artykuły, propozycje stron i reklamy, które nam się pokazują. Wciąż wielu ludzi nie zdaje sobie sprawy z tego, że Facebook jest moderowany i że jednocześnie, pewne treści są przed nami ukrywane. A za moderacją stoi chęć ciągłego zwiększania zysku. Facebook ma tylu użytkowników, że gdyby był państwem, byłby największym państwem na świecie. Mówimy więc o niewyobrażalnych pieniądzach.
Monopoliści internetowi dają nam jeszcze inny powód do obaw. Otrzymujemy treści, które tylko ugruntowują nas we własnych przekonaniach. Bańka informacyjna zabija debatę i dostęp do różnych poglądów. Nie wiemy, jak ustawione są algorytmy i jakimi zasadami się rządzą, bo to tajemnice biznesowe. Jesteśmy więc sterowani jak marionetki. I choć o tym wiemy, wciąż nie wiem jak sobie z tym poradzić i jak się temu przeciwstawić.
By walczyć z fake newsami, postprawdą i zamykaniem w bańkach informacyjnych, potrzebujemy gruntownej reformy edukacji, potrzebujemy kursów krytycznego myślenia, oceny informacji, umiejętności fact checkingu. I musimy tę wiedzę posiąść na własną rękę.
Trendy technologiczne jakie są każdy widzi
Trendy technologiczne wydają się poza naszą kontrolą. Niestety, nie można się od nich odciąć bez całkowitego porzucenia technologii i życia poza siecią. A nawet wtedy, wciąż trudno byłoby porzucić niektóre technologie. Nie możemy powstrzymać tego, co się dzieje, ale sama świadomość pozwala przygotować się na negatywne skutki. W niektórych obszarach możemy wyrazić swoją opinię na temat konkretnej sprawy, tym na co poświęcamy swoje pieniądze oraz czas będąc w sieci. Tylko tyle i aż tyle.