Jak donosi Associated Press, Linwei Ding został aresztowany w Newark w stanie Kalifornia pod czterema zarzutami. Każdy z nich jest zagrożony nawet 10 latami więzienia. Informację o tym, według serwisu, przekazał Prokurator Generalny USA Merrick Garland podczas konferencji prawniczej w San Francisco.
„Dzisiejsze zarzuty pokazują wysiłki, jakie są skłonni podjąć wspólnicy firm z Chińskiej Republiki Ludowej, by wykraść amerykańskie innowacje” – stwierdził w oświadczeniu dyrektor FBI Christopher Wray.
Według Google, Linwei Ding ukradł wiele dokumentów, pomimo zabezpieczeń wprowadzonych przez firmę.
Według zarzutów postawionych Chińczykowi, dwa lata temu zaczął on wysyłać setki dokumentów na prywatne konto na Google Cloud. Pracownik został zatrudniony w Google w 2019 roku i miał dostęp do informacji o centrach superkomputerów firmy. W międzyczasie, Ding przyjął posadę w chińskim startupie i założył własny startup w kraju ojczystym. O tym jednak fakcie nic nie wspomniał swemu amerykańskiemu pracodawcy.
Sprawa zaczęła nabierać rumieńców dopiero wtedy, gdy Ding zrezygnował z pracy w Google w grudniu zeszłego roku. Szybko po tej rezygnacji został zaprezentowany jako prezes jednego ze startupów na konferencji w Pekinie. Wtedy Google zaczął sprawdzać jego aktywność w firmie.
Okazało się, że inny pracownik Google skanował kartę dostępową Dinga, gdy ten przebywał z wizytami w Chinach. Chodziło o to, żeby system wykazywał, że jest on w pracy. Następnie odkryto setki transferów plików. Gdy FBI przejęło jego konta, okazało się, że jest na nich przeszło 500 plików z poufnymi informacjami ukradzionymi Google.
Co mógł wykraść chiński współpracownik Google?
Nawet jeśli Google w jakimś stopniu dało się wyprzedzić OpenAI pod względem rozwoju generatywnej sztucznej inteligencji, to nadal jest jednym z liderów branży, co pokazują choćby najnowsze modele Gemini.
Jeszcze około 10 lat temu, przed stworzeniem architektury transformerów w 2017, wydawało się, że Chiny będą mieć przewagę w rozwoju sztucznej inteligencji. Szczególnie w zakresie DeepMind, czyli uczenia głębokiego. Przy tradycyjnym uczeniu głębokim modele sztucznej inteligencji trenuje się przy pomocy opisanych danych. Np. jeśli chcemy wytrenować system klasyfikujący zdjęcia, to trenujemy go przy pomocy wielu tysięcy zdjęć z opisami, co dane zdjęcie zawiera. To zaś wymaga pracy sporej liczby ludzi, którzy opiszą zdjęcie dla systemu. A z zasobami siły roboczej w Chinach jest dużo lepiej niż w świecie zachodnim.
Innym argumentem za przewagą Chin, jeśli chodzi o rozwijanie systemów AI, był absolutny brak skrupułów władz tego kraju. W jakiej dziedzinie? Oczywiście w tej, w której przewagę mają systemy niedemokratyczne, czyli w zakresie prywatności obywateli. Stąd szybkie postępy np. technologii rozpoznawania twarzy.
Pojawienie się transformerów i opartych na nich dużych modeli językowych (LLM) to zmiana… wszystkiego. Transformery są w stanie w dużej merze same przetwarzać dane i wkład ludzki do trenowania tzw. modeli bazowych jest niewielki. W późniejszych fazach, takich jak dostrajanie czy RLHF (w której to człowiek wybiera najbardziej preferowane odpowiedzi modelu) praca ludzka jest istotna, ale nie w takiej skali, jak przy tradycyjnym uczeniu głębokim.
Za to wymagania sprzętowe gwałtownie wzrosły. Do wytrenowania modelu nie wystarczały już karty z 8 czy 11 GB pamięci, LLM-y potrzebowały dziesiątek czy setek kart z 80 GB pamięci każda. Produkowanych przez amerykańską Nvidię. Dodatkowo, sankcje wprowadzone przez władze amerykańskie na technologie sprzedawane do Chin spowodowały, że Chiny zostały w tyle. I chcą nadrobić dystans. Jak się okazuje – na skróty.
Źródło zdjęcia: Sztuczna inteligencja, DreamStudio