Nowe możliwości przestępców
Rozwój sztucznej inteligencji szybko zaczął umożliwiać przestępcom doskonalenie istniejących, jak i wdrażanie nowych przedsięwzięć ściganych prawem. A dla tych mniej biegłych technicznie dał dostęp do nowych umiejętności jak kodowanie złośliwego oprogramowania czy choćby posługiwanie się wieloma językami. Narzędzia do generowania tekstu, realistyczne tworzenie obrazów generowanych przez AI i klonowanie głosu to kluczowe możliwości, jakie przestępcy stosują w przypadku coraz większej gamy oszustw, a ich działania stają się bardziej wiarygodne dla potencjalnych i rzeczywistych ofiar. Na przykład spear phishing, czyli spersonalizowana forma komunikacji staje się bardziej przekonująca dzięki generowanym przez AI „osobistym” e-mailom, a manipulacja rynkiem może być wykonywana wydajniej przy użyciu algorytmów AI do analizy i wykorzystywania danych finansowych.
Dzięki technologii oszuści mogą też:
- analizować dane publiczne, oszczędzając czas na rozpoznanie i umożliwiając precyzyjniejsze ataki;
- wykorzystywać chatboty do szybkiego generowania przekonujących komunikatów phishingowych w wielu językach poprzez eliminowanie błędów ortograficznych i gramatycznych;
- tworzyć podobizny celebrytów zachęcające ofiary do inwestowania w oszukańcze firmy lub projekty.
Amerykańska firma USI zajmująca się przeciwdziałaniem cyberprzestępstwom podaje, że ich globalny koszt w 2023 roku wyniósł około 8 bilionów dolarów. Wielkościowo odpowiada blisko jednej trzeciej PKB Stanów Zjednoczonych! To skutek możliwości dokonywania przestępstw niemal w przemysłowej i globalnej skali, a także współpracy międzynarodowej grup przestępczych.
Potencjał danych
Jednak sztuczna inteligencja głęboko zmienia powoli krajobraz egzekwowania prawa, oferując także innowacyjne narzędzia i możliwości w zakresie ochrony bezpieczeństwa publicznego. Chodzi przede wszystkim o potencjał AI wykorzystywany w dziedzinie prawa, co wynika z możliwości analizy ogromnych zasobów danych publicznych i niepublicznych. Wyzwaniem jest jednak fakt, że 80 proc. z nich (jak podaje firma Veritone) jest nieustrukturyzowana. Chodzi przede wszystkim o pliki wideo, audio, graficzne i posty w mediach społecznościowych. A takie dane były dotychczas czasochłonne do ręcznego przeszukiwania i analizy, co przekraczało możliwości analityczne organów ścigania. Dotyczy to pojedynczych urządzeń jak smartfony, które zawierają setki tysięcy wiadomości tekstowych, audio, obrazów i filmów.
Pojawienie się sztucznej inteligencji znacznie zwiększyło możliwości tradycyjnej analizy danych kryminalnych. Zdolność systemów AI do uczenia się (machine learning) pozwala analitykom kryminalnym eksplorować dane, przetwarzając i analizując je znacznie wydajniej i dokładniej niż wcześniej. Na przykład śledczy mogą analizować miliony transakcji finansowych i wykrywać anomalie, takie jak podejrzane przepływy środków, co szybciej pozwala identyfikować oszustwa.
Nie przegap najważniejszych trendów w technologiach!
Zarejestruj się, by otrzymywać nasz newsletter!
Łatwiejsza identyfikacja przestępców dzięki AI w prawie
Szczególnego znaczenia nabrało wykorzystanie otwartych zasobów danych (OSINT) i tych pochodzących z social mediów (SOCMINT). Dla organów ścigania oznacza to możliwość szybkiego wyodrębniania danych jednostkowych z tysięcy godzin plików audio, wideo czy tekstowych takich jak numery telefonów, nazwiska bez konieczności przechodzenia przez treść wiadomości, co służy także ograniczeniu potencjalnych naruszeń ochrony danych i minimalizacji ilości przetwarzania danych osobowych.
Analiza danych pozwala na wykrywanie wzorców w działalności przestępczej, identyfikację korelacji między różnymi typami danych takimi jak pogoda lub wzorce sezonowe i wskaźniki przestępczości na danych obszarach. To z kolei może przekładać się na prognozowanie zapotrzebowania na zasoby osobowe policji na podstawie trendów z przeszłości.
Przykłady takich zastosowań przedstawia raport Europolu. Kilka lat temu służby francuskie i holenderskie doprowadziły do demontażu narzędzia do szyfrowanej komunikacji EncroChat. Służyło ono do zapewnienia użytkownikom doskonałej anonimowości i uniemożliwiało ich śledzenie, co było wykorzystywane przez zorganizowane grupy przestępcze na całym świecie. Telefony z obsługą EncroChat, w cenie około 1000 euro za sztukę, oferowały takie funkcje jak automatyczne usuwanie wiadomości i możliwość zdalnego czyszczenia urządzeń. Śledczym udało się przechwycić, udostępnić i przeanalizować ponad 115 milionów konwersacji przestępczych, prowadzonych przez szacowaną liczbę ponad 60 tys. użytkowników zaangażowanych m.in. w handel narkotykami i pranie brudnych pieniędzy. Dzięki zaawansowanej analityce AI organy ścigania były w stanie zidentyfikować wzorce, powiązania i kluczowe centra komunikacji, co doprowadziło do aresztowania 6558 podejrzanych. Przejęto też broń, narkotyki, nieruchomości i fundusze o wartości 740 mln euro.
Działania prewencyjne…
Zastosowanie AI pomaga też zapobiegać przestępstwom, co nasuwa skojarzenie z sytuacją z filmu „Raport Mniejszości”, gdzie dokonywano zatrzymań przestępców, zanim zdążyli oni dokonać poważnego wykroczenia. Działanie zwane predictive policing umożliwia wytypowanie miejsc, czasu i rodzaju przestępstw, których prawdopodobieństwo wystąpienia jest wysokie. Algorytmy oparte na obszarze identyfikują powiązania między lokalizacjami, zdarzeniami i historycznymi statystykami przestępczości, a oparte na osobach typują podejrzanych, którzy mogą angażować się w działalność przestępczą.
…i informacje w czasie rzeczywistym
Z kolei dzięki integracji algorytmów opartych na AI i strumieni wideo można przetwarzać w czasie rzeczywistym obrazy z miejsc publicznych, skanując wstępnie zdefiniowane wzorce lub anomalie. Ta możliwość sprawdza się szczególnie w strefach wrażliwych pod względem bezpieczeństwa. System może natychmiast generować powiadomienia lub wszczynać alarm o podejrzanych działaniach, takich jak podejrzane pojazdy w pobliżu wrażliwych lokalizacji, dzieci pozostawione bez opieki czy przedmioty mogące stanowić zagrożenie.
Przydatne dla organów ścigania okazuje się też technologia przetwarzania języka naturalnego (NLP). Za jej pomocą można na przykład analizować dane tekstowe i identyfikować słowa kluczowe w języku przestępców, co pozwala lepiej zrozumieć okoliczności towarzyszące konkretnemu zdarzeniu. NLP umożliwia też szybkie klastrowanie, czyli identyfikację podobnych scenariuszy przestępstw, co może być pomocne do zdefiniowania grup przestępczych.
Nowe możliwości biometryczne
AI rozszerzyła też możliwości analityczne w zakresie biometrii. Nie chodzi tu tylko o szybszą identyfikację i porównywanie odcisków palców. Śladem biometrycznym może być także głos i chód. Technologia rozpoznawania głosu rozszyfrowuje nawet drobne różnice, zamieniając wypowiadane słowa na modele cyfrowe, które można porównać z zapisanymi próbkami głosu. Natomiast analiza chodu (np. postawa, długość kroku, układ stóp) może służyć identyfikacji podejrzanych w przypadkach, w których brak innych śladów biometrycznych jak rysy twarzy czy odciski palców.
Rosnące znaczenie w działalności organów ścigania zaczyna odgrywać także generatywna sztuczna inteligencja. Może być ona użyta do natychmiastowego generowania kontekstowych podsumowań z ogromnych zestawów danych. To stanie się kluczowym czynnikiem geometrycznego postępu w procesie prowadzenia śledztw o charakterze kryminalnym, przyśpieszając rozwiązywanie wielu spraw.
Opinie o roli AI w prawie
Badania firmy Cellebrite, które obejmuje odpowiedzi od ponad 2000 specjalistów organów ścigania na całym świecie, pokazuje, że 61 proc. z tych specjalistów uważa AI za cenne narzędzie do cyfrowej kryminalistyki oraz śledztw i jest przekonanych, że może ono poprawić wydajność i dokładność oraz odkryć ukryte dowody. Co więcej, 9 na 10 respondentów wyraża przekonanie, że AI może pozytywnie wpłynąć na cyfrowe śledztwa. Uważają oni, że AI może pomóc w lepszym rozpoznawaniu wzorców i wykrywaniu anomalii w dowodach cyfrowych, a także ułatwić wydobycie i analizę kluczowych dowodów w wielu sprawach.
Obawy i ryzyka
Rozpowszechnienie zastosowań sztucznej inteligencji w celu egzekwowania prawa może budzić obawy. Związane one są z ograniczaniem prawa do prywatności i potencjalną stronniczością algorytmów, co może być dyskryminujące ze względów społecznych czy rasowych i pogłębiać nierówności społeczne. Takie przypadki (uprzedzenia rasowe) miały miejsce w amerykańskim systemie sądowniczym w odniesieniu do zautomatyzowanych wyroków zawiązanych z niewielkim wymiarem kary. Kwestia ta ujęta została w unijnej ustawie o sztucznej inteligencji (EU AI Act) z 2023 roku. Wymaga ona od organów ścigania przestrzegania rygorystycznych standardów etycznych, prawnych i dotyczących prywatności. Może to jednak w wielu przypadkach być związane z koniecznością oceny ryzyk w tym zakresie, a to pociągać za sobą będzie dodatkowe koszty.
Źródło zdjęcia: ADArt00090 z Pixabay