Jak donosi South China Morning Post, pracownik zlokalizowanego w Hongkongu oddziału międzynarodowej firmy (media nie podają nazwy firmy) przelał przestępcom 200 milionów dolarów hongkońskich (równowartość około 25,6 milionów dolarów amerykańskich). Jak to się stało? Pracownik wziął udział w wideokonferencji, a w jej trakcie otrzymał polecenie od – jak się okazało wygenerowanego przez sztuczną inteligencję – dyrektora finansowego firmy.
Firma wykryła oszustwo dopiero po tygodniu i wtedy powiadomiła policję. Ze względu na dobro śledztwa hongkońskie władze nie podały nazwy firmy, która padła ofiarą oszustwa.
O ile używanie deepfake’ów, a więc treści syntetycznych wytworzonych przez głębokie {stąd nazwa) sieci neuronowe do wyłudzeń, nie jest niczym nowym – deepfake’owa wersja metody „na wnuczka” zyskała na popularności w ostatnim roku, o tyle poziom zaawansowania tej techniki w ataku na tę konkretną firmę budzi respekt – i obawy o przyszłość. Wideo, które ujrzał pracownik, zawierało bowiem nie tylko postać dyrektora finansowego, ale również innych pracowników, co dodawało przekazowi wiarygodności.
Niedawno pisaliśmy o technologii firmy McAfee umożliwiającej wykrycie deepfake’u w dźwięku.
Jak dużym zagrożeniem jest AI?
Pokazuje to, jak dużym zagrożeniem staje się generatywna sztuczna inteligencja zarówno dla bezpieczeństwa finansowego, jak i cyberbezpieczeństwa. Można sobie bez trudu wyobrazić wygenerowanego przez sztuczną inteligencję przełożonego żądającego od administratora IT zmiany hasła i nadanie uprawnień admina, co oczywiście otwiera szeroko cały system informatyczny firmy przed przestępcami.
Chcesz wiedzieć, jak wykryć sfałszowane zdjęcie? Opisaliśmy to w tym artykule.
Zabezpieczenie się przed tego typu przestępstwami nie będzie łatwe i będzie wymagało wprowadzenia nowych procedur. Hongkońska policja zaleca sprawdzenie rozmówców podczas kontaktu wideo na przykład przez poproszenie ich o poruszenie głową (takie wideo nie jest wytwarzane na bieżąco, tylko przygotowywane zawczasu) lub o podanie informacji umożliwiających potwierdzenie tożsamości danej osoby.
Niedawno Światowe Forum Ekonomiczne, organizator forum w Davos, uznało generatywną sztuczną inteligencję za największe zagrożenie dla ludzkości w 2024 r. – jednak nie ze względu na aspekt finansowy, tylko polityczny, czyli potencjalny wpływ GenAI na procesy wyborcze w krajach demokratycznych.
Źródło zdjęcia: Christina @ wocintechchat/Unsplash