27 czerwca 2024

Nowa broń globalnej zagłady jest coraz bliżej. Czy powstanie Projekt Manhattan dla sztucznej inteligencji?

Dyskusja dotycząca zagrożeń związanych z błyskawicznym rozwojem sztucznej inteligencji rozszerzyła się właśnie o nowy wymiar. W grupie badaczy z Doliny Krzemowej kiełkuje przekonanie, że wkrótce zaostrzy się geopolityczny wyścig między USA a Chinami w kierunku nadludzkiej sztucznej inteligencji. Struktura branży AI ulegnie całkowitemu przeobrażeniu, a rywalizacja między firmami Google i Microsoft zostanie zastąpiona scentralizowanym, zmilitaryzowanym projektem podobnym do Projektu Manhattan.

Czy scenariusz zarysowany w tym dokumencie jest realistyczny? I jakie mogą być jego konsekwencje dla ludzkości?

Prof. Jakub Growiec opublikował wcześniej na łamach HomoDigital rozważania nt. sztucznej inteligencji ogólnego zastosowania (AGI). Powstały trzy artykuły. W 1. części prof. Jakub Growiec zastanawiał się, kiedy AGI osiągnie poziom inteligencji człowieka, w 2. części mogliśmy przeczytać refleksje autora nt. ryzyka, że AGI nas – jako ludzkość – zabije, a w 3. części autor pytał, czy możliwa jest AGI przyjazna ludziom.

Kiedy nadejdzie superinteligencja?

Pół roku temu omówiłem w serii trzech tekstów w HomoDigital, kiedy może nadejść nadludzka AI oraz pod jakimi warunkami będzie nam przyjazna, a pod jakimi warunkami doprowadzi do zagłady ludzkości. Przedstawione tam oceny w pełni podtrzymuję, a w świetle informacji, które napłynęły przez ostatnie pół roku, problem wydaje mi się dziś jeszcze poważniejszy.

Tempo rozwoju technologii AI pozostaje szalone. List otwarty z marca 2023 r. postulujący co najmniej 6-miesięczną przerwę w trenowaniu dużych modeli językowych, pomimo pozytywnego odbioru, nie doprowadził do żadnych realnych zmian.

Moc obliczeniowa w dyspozycji liderów branży, takich jak OpenAI (Microsoft), Google czy Anthropic, podwaja się obecnie co około 6 miesięcy. Poprawa efektywności algorytmów jest także bardzo dynamiczna – moc obliczeniowa wymagana do osiągnięcia przez duże modele językowe tych samych benchmarków zmniejsza się o połowę co około 8 miesięcy. Wzrost kompetencji AI postępuje w przewidywalny sposób zgodnie z tzw. prawami skalowania (scaling laws), a w miarę postępów ilościowych pojawiają się też kolejne przełomy jakościowe.

Przez ubiegłe pół roku mogliśmy dzięki nim obserwować skokowy wzrost kompetencji w rozwiązywaniu trudnych zadań z geometrii (AlphaGeometry), w tworzeniu filmów video na podstawie poleceń słownych (SORA) czy w umiejętności prowadzenia angażującej rozmowy (w pełni głosowej) z człowiekiem (GPT-4o). Coraz mniej jest zadań, w których AI radziłaby sobie zdecydowanie gorzej od człowieka. W branży kończą się już benchmarki i szybko wymyślane są nowe, często bardzo specjalistyczne, z którymi mało który człowiek jest w stanie sobie poradzić.

Równocześnie wdrażane są rozmaite rozszerzenia bazowych modeli AI ułatwiające im posługiwanie się narzędziami cyfrowymi dostępnymi w internecie, sterowanie robotami i pojazdami w realnym świecie, a także zapamiętywanie i refleksję nad skutkami swoich działań, co zwykle prowadzi do autokorekt i dalszych wzrostów kompetencji. AI staje się też coraz bardziej autonomiczna: z czatbota, który grzecznie czeka na instrukcje, a po ich realizacji przechodzi w stan uśpienia, staje się agentem, który może działać w sposób ciągły i realizować założone cele.

Cel – prześcignąć poziom ogólnej inteligencji człowieka

Kiedy zatem AI prześcignie poziom ogólnej inteligencji człowieka? Kiedy powstanie ogólna sztuczna inteligencja? W ostatnich latach horyzont zdarzeń bardzo się skrócił: pogląd, że stanie się tak w ciągu najbliższych 10 czy 20 lat przestał być traktowany jako szalony; wręcz przeciwnie, stopniowo zaczyna się wydawać konserwatywny. W publicznej deklaracji OpenAI zawarte jest, że firma ta spodziewa się powstania AGI już „w ciągu tej dekady” (do 2030 r.). Jej niedawny pracownik Leopold Aschenbrenner prognozuje, że AGI pojawi się w 2027 r.

Ważne jest też pytanie, ile zajmie sztucznej inteligencji przejście od poziomu człowieka do poziomu prawdziwej superinteligencji, wyraźnie mądrzejszej nie tylko od człowieka, ale także całej ludzkości razem wziętej. Otóż zdaniem Aschenbrennera będzie to trwało krócej niż rok (do 2028 r.). Tylko troszkę mniej radykalne wnioski wysnuwa w swoich obliczeniach Tom Davidson z Open Philanthropy, think-tanku z San Francisco. Ze względu na bardziej konserwatywne założenia dotyczące tempa rozbudowy mocy obliczeniowych przewiduje on mianowicie, że tego rodzaju „eksplozja inteligencji” potrwa około 3 lata.

AGI rzeczywiście się zbliża

Reasumując, ostatnie pół roku powinno przekonać wątpiących, że AGI rzeczywiście się zbliża. Jedyny scenariusz, w którym obserwowane tendencje rozwojowe mogłyby się załamać, to ten, w którym branża napotkałaby na nieprzekraczalną barierę. Tej jednak zupełnie nie widać: nie wydają się wiążące ani ograniczenia mocy obliczeniowych wynikające z praw fizyki czy dostępności surowców, ani ograniczenia wynikające z nadmiernej prostoty wykorzystywanych modeli sieci neuronowych. Zwłaszcza że modele te stają się przecież stopniowo coraz bardziej złożone w swej konstrukcji, a wobec nowo nabytej umiejętności kodowania, AI może wkrótce zacząć proponować efektywne samoulepszenia.

Inną barierą mógłby się wydawać brak danych do uczenia sieci neuronowych; już teraz bazują one przecież na całej informacji zawartej w internecie. I tu jednak widać duży potencjał, który niesie pogłębienie uczenia na wybranych podzbiorach wiedzy (w internecie są tony śmieci, ale są też np. zaawansowane podręczniki, których nie wystarczy tylko raz przeczytać, żeby je przyswoić) czy tworzenie danych syntetycznych albo wykorzystywanie uczenia iteracyjnego na zasadzie gry samemu ze sobą (self-play).

Innymi słowy: (1) prawa skalowania nie wydają się słabnąć, (2) nawet gdyby zaczęły w przyszłości słabnąć, to i tak nie należy się spodziewać, że zderzą się z sztywną barierą.

Kto i gdzie zbuduje AGI? Kalifornia czy Chiny?

W miarę rozwoju dużych modeli językowych krajobraz branży AI się zmienił. Wyniki naukowe osiągane w ośrodkach akademickich i mniejszych firmach przestały mieć praktyczne znaczenie. Ugruntował się prymat firm OpenAI (Microsoft), Google oraz Anthropic. Nieco w tyle pozostaje Meta (Facebook). Badacze AI zatrudnieni w tych firmach przestali publikować swoje osiągnięcia w formie prac naukowych.

Obecnie na zewnątrz prezentowane są już tylko możliwości kolejnych algorytmów, ale nie ich szczegóły implementacyjne, a tym bardziej nie surowy kod. Zmiana taka wiąże się z jednej strony z zaostrzeniem konkurencji między poszczególnymi ośrodkami – na stole leżą coraz większe pieniądze – a z drugiej strony z faktem, że rozwijanie zaawansowanej AI wymaga dziś ogromnych inwestycji sprzętowych – budowy coraz rozleglejszych i droższych farm serwerów (opartych zwykle na dedykowanych urządzeniach jak np. zaprezentowana w marcu 2024 r. karta graficzna Nvidia Blackwell B200).

Wszystkie trzy wymienione powyżej ośrodki sąsiadują ze sobą w Dolinie Krzemowej na południowym brzegu Zatoki San Francisco. Pewnym wyjątkiem jest jedynie ośrodek DeepMind, który choć zależny od Google’a, mieści się w Londynie. Czy możemy zatem przyjąć, że AGI zbudowane zostanie w Kalifornii?

Jest to możliwe, ale nie jest przesądzone. Kolejne podwojenia mocy obliczeniowej wymagają coraz większych ilości energii elektrycznej, której w Kalifornii zaczyna brakować. Wkrótce może być tak, że dalszy rozwój AI realizowany tam, gdzie będzie najłatwiejszy dostęp do energii. Równocześnie po drugiej stronie Pacyfiku rośnie w siłę inny ważny gracz: Chiny.

Zdaniem Aschenbrennera chiński sektor AI (w szczególności firma Baidu) ma obecnie około roku opóźnienia względem najlepszych osiągnięć Doliny Krzemowej, a ich duże modele językowe są nieznacznie tylko zmodyfikowanymi kopiami modeli amerykańskich. Choć Chiny są liderem w zakresie liczby publikacji naukowych w dziedzinie AI, nie notują jednak aż takich przełomów, jak ma to miejsce w USA.

Może się to jednak zmienić, zwłaszcza gdyby szaleńcze tempo rozwoju AI w USA spowolniło, a w Chinach nie. Przykładowo, niewykluczone jest, że w nieodległej przyszłości Chiny będą w stanie budować większe farmy serwerów (i zapewniać im potrzebną energię elektryczną).

Czy AGI będzie nam przyjazna?

Zarysowawszy ramy tego wyścigu technologicznego, wróćmy jednak do zasadniczego pytania, w jakich warunkach szansa, że AGI będzie przyjazna człowiekowi, będzie największa. Stawką jest tu przecież uniknięcie zagłady ludzkości, a taka zagłada – co logiczne – dotyczyłaby w równym stopniu Amerykanów i Chińczyków, o Polakach nie wspominając.

Niestety obecna dynamika wyścigu technologicznego napędzanego perspektywą ogromnych zysków i władzy nad umysłami ludzi nie wróży dobrze. Przykładowo OpenAI pod wodzą Sama Altmana często mówi publicznie o zagrożeniach (z zagrożeniem egzystencjalnym włącznie), ale w praktyce je zupełnie ignoruje. Szacuje się, że zaledwie 1% nakładów rozwojowych branży AI kierowane jest na badania nad zgodnością celów AI i jej bezpieczeństwem, pozostałe 99% służy rozwojowi jej kompetencji.

Co symptomatyczne, niedawno po cichu rozwiązano utworzony w połowie 2023 r. Superalignment Team OpenAI mający za zadanie zadbać, by produkty firmy były zgodne z długofalowym dobrem ludzkości. Szefowie tego programu Ilya Sutskever i Jan Leike odeszli z firmy, podobnie zresztą jak cytowany przeze mnie wcześniej Leopold Aschenbrenner.

Zwrócili oni przy tym uwagę, że ich zespół nigdy nie otrzymał do dyspozycji obiecanych im publicznie 20% mocy obliczeniowych OpenAI. (Nie jestem przesądny, ale dla porządku odnotuję, że równocześnie w ostatnich miesiącach rozwiązany został też oxfordzki Future of Humanity Institute – Instytut Przyszłości Ludzkości. Być może stwierdzono, że nie ma już o czym mówić).

Może więc lepiej ten kapitalistyczny wyścig ukrócić i – jak sugeruje Aschenbrenner – objąć kalifornijską branżę AI kontrolą państwową, zintegrować z amerykańskim sektorem wojskowym, a konkurujące ze sobą firmy AI połączyć w jedno duże laboratorium? Tworząc w ten sposób coś na wzór Projektu Manhattan? Analogia jest tu oczywiście uzasadniona, bo AI, podobnie jak broń atomowa, może doprowadzić do zagłady ludzkości. Tylko czy byłoby to dobre z punktu widzenia bezpieczeństwa?

Mam mieszane uczucia

Z jednej strony ucieszyłbym się, widząc jakąkolwiek poprawę standardów bezpieczeństwa względem stanu bieżącego. Może niebezpieczne technologie nie byłyby już od razu udostępniane w internecie i testowane na bieżąco na żywym organizmie? Zastąpienie mechanizmu rynkowego decyzjami rządu USA mogłoby, jako bezpośrednia przyczyna, spowolnić rozwój tej technologii, ograniczyć jej zastosowania i ograniczyć przepływ know-how do innych krajów, w szczególności do Chin.

Z drugiej strony spodziewam się jednak, że decyzja taka będzie odebrana w Chinach jak wypowiedzenie wojny. I nawet jeśli nie doszłoby do bezpośredniej konfrontacji militarnej ani chińskiej inwazji na Tajwan (warto pamiętać, że tajwański TSMC jest czołowym producentem układów scalonych na świecie, kluczowym w łańcuchu dostaw branży AI), to i tak Chiny rzucą wtedy większe siły w geopolityczny wyścig zbrojeń zmierzający w kierunku budowy nadludzkiej sztucznej inteligencji.

W reakcji na ten ruch również Amerykanie poczują się zmuszeni, żeby jednak znów przyspieszyć. I tak oto pojawi się nowy wyścig, tym razem już mobilizujący zasoby na poziomie narodowym.

Negacjoniści, doomerzy, akceleracjoniści i … obóz militarno-patriotyczny

Jak dotąd dyskusja nad konsekwencjami AGI toczyła się pomiędzy (z grubsza) trzema obozami, twierdzącym, że albo (a) AGI nigdy nie nadejdzie, (b) AGI nadejdzie i przyniesie zagładę ludzkości (tzw. doomerzy, od słowa doom – zagłada) albo (c) AGI nadejdzie i przyniesie utopijną, doskonałą przyszłość (ten obóz ostatnio zyskał etykietę „e/acc” – effective accelerationists, efektywnych akceleracjonistów).

To już nieaktualne, bo pojawił się czwarty obóz, który Aschenbrenner nazywa „realistami AGI”, choć ja nazwałbym go raczej obozem militarno-patriotycznym (na marginesie: przewrotne jest przy tym, że Aschenbrenner nie jest nawet Amerykaninem, lecz Niemcem).

Obóz ten uważa, że AGI nadejdzie i przyniesie jedną z dwóch przyszłości: utopijną lub dystopijną, w zależności od tego, kto ją zbuduje – czy będzie to laboratorium z tzw. Wolnego Świata (w domyśle USA), czy też laboratorium z kraju niedemokratycznego, takiego jak Chiny (aby nie deprecjonować tysiącleci chińskiej kultury, Aschenbrenner pisze tu taktownie o Chińskiej Partii Ludowej).

Zdaniem Aschenbrennera nowy Projekt Manhattan jest niezbędny, bo (cytuję) „wolny świat musi wygrać(the free world must prevail). Przewiduje on, że nadludzka superinteligencja będzie się kierowała wartościami, które zostaną jej zaprogramowane, i będzie te wartości realizować efektywniej, niż czynią to ludzie.

Co więcej, wartości te zostaną ugruntowane dla ludzkości na zawsze (tzw. value lock-in), gdyż obdarzona nadludzką racjonalnością i jasnymi celami AI nie zgodzi się na ich zmianę. Powinny więc to być nasze wartości, reprezentowane przez gwieździsty sztandar, a nie ich wartości reprezentowane przez sierp i młot.

Lepszy i gorszy świat wartości – fałszywa dychotomia

Dychotomia ta wydaje mi się jednak fałszywa. Nawet przyjmując założenie, że AGI będzie w pełni kontrolowana, nie mam wcale przekonania, że będzie ona reprezentowała lepsze wartości, gdy będzie w rękach amerykańskich niż gdy będzie w rękach chińskich.

To znaczy: oczywiście jestem całym sercem za wolnością i demokracją, i równie żarliwie sprzeciwiam się totalitaryzmowi, jednak bynajmniej nie jestem przekonany, że wartości te dadzą się skutecznie utrwalić dzięki AGI. Nawet w ramach „wolnego świata” jest przecież wiele paradoksów, jawnych niesprawiedliwości czy plemiennych sporów. Z kolei powszechne prawa człowieka, zasady niedyskryminacji i inne progresywne wartości „wolnego świata” są osiągnięciem relatywnie niedawnym i nie w pełni ugruntowanym.

Obawiam się, że w obliczu gwałtownych zmian technologicznych mogą być one niestabilne. Podobnie jak Yuval Noah Harari w „Homo deus” ostrzega przed cyfrowymi dyktaturami, tak i ja uważam, że nawet przyjazna człowiekowi AGI, ze względu na swe właściwości będzie miała większy potencjał do wspierania manipulacji i kontroli niż demokratyzacji i włączenia.

Poza tym, co prawda w USA nie ma dyktatury, ale jak najbardziej istnieje potencjał, by wytworzyć jej cechy w przyszłości; Donald Trump był chyba całkiem blisko. Patrząc na „wolny świat” nieco szerzej, demokracje zachodnie wydają się dziś słabnąć, podczas gdy w siłę rosną ugrupowania radykalnej prawicy. (W mojej książce konstruuję w tym kontekście hipotezę wiążącą stopień tolerancji i demokratyzacji z wartością pracy umysłowej człowieka – przewiduję, że jeśli w dobie automatyzacji praca ta zacznie tracić swoją wartość, to i stopień demokratyzacji może zacząć spadać).

Możliwości kontrolowania AGI

Jako zdeklarowany doomer mam jednak przede wszystkim wątpliwości co do samej możliwości kontrolowania AGI. Jest mi wszystko jedno, czy zabije mnie amerykańska, czy chińska AI; uważam, że priorytetem powinno być uniknięcie zagłady ludzkości, a to wymaga rozwiązania problemu zgodności celów AGI (AGI alignment problem), zanim zostanie ona zbudowana. Przy czym jest to w mojej ocenie zadanie niezwykle trudne.

Nie widzę obecnie w literaturze obiecujących podejść do tego problemu. Nie mam też złudzeń, że w warunkach wyścigu zbrojeń uda się je „na szybko” wypracować. W raporcie Aschenbrennera można zresztą znaleźć cenne świadectwo o tym, jak sprawa ta wygląda od wewnątrz, z perspektywy pracownika niedawno rozmontowanego Superalignment Teamu OpenAI.

Otóż zespół ten bazował na założeniu, że ponieważ obecnie stosowane narzędzia, takie jak RLHF (reinforcement learning from human feedback – uczenie ze wzmocnieniem dzięki ocenom ludzi) nie będą już działać w przypadku modeli o nadludzkiej inteligencji, niezbędne jest stworzenie „milionów zautomatyzowanych badaczy AI”, którzy podołają temu trudnemu zadaniu. Dopasowywanie celów i wartości AI do preferencji człowieka odbywałoby się wówczas stopniowo, iteracyjnie, w miarę wzrostu kompetencji trenowanych modeli AI.

My przekażemy nasze wartości modelom troszkę od nas mądrzejszym, te przekażą je modelom troszkę od nich mądrzejszym, i tak dalej, i tak dalej. Ostatecznie, jak przekonuje Aschenbrenner, „damy radę” (we’ll muddle through). Nie czuję się przekonany:

Po pierwsze, obawiam się, że byt nawet minimalnie od nas mądrzejszy może nas oszukać, jak również może on być oszukany przez byt nieco mądrzejszy od niego.

Po drugie, wcale nie odnoszę wrażenia, że RLHF rozwiązuje problem zgodności celów obecnych modeli. Procedura ta pozwala raczej zamaskować problemy, a nie je rozwiązać; raczej „socjalizuje” ona modele AI i uczy je zachowywać niepożądane myśli dla siebie, niż autentycznie te niepożądane myśli eliminuje.

W mojej ocenie GPT-4 wcale nie jest przyjazny. Jest niegroźny tylko dlatego, że jego inteligencja nie jest dostatecznie wszechstronna. GPT-4 nie zrobi nam krzywdy nie dlatego, że nie chce, tylko dlatego, że nie może.

Prawo do ostrzegania opinii publicznej

4 czerwca 2024 r. opublikowany został list otwarty do firm branży AI zawierający postulat, by zaprzestały one praktyk zamykania ust pracownikom, którzy chcieliby ostrzec opinię publiczną przed zagrożeniami, które niesie rozwijana przez nie technologia. Przyczyną tego protestu są klauzule poufności, powszechnie przedkładane do podpisu pracownikom OpenAI czy Google’a, zakazujące tego rodzaju aktywności pod rygorem utraty praw do (niezwykle cennych) akcji firm.

Byłoby dobrze, gdyby list ten odniósł skutek. Trudno jednak nie zauważyć, że hipotetyczna nacjonalizacja branży AI w formie Projektu Manhattan z pewnością odniosłaby skutek przeciwny: sekrety firm AI stałyby się informacją niejawną, której ujawnienie byłoby ścigane z mocy prawa.

Inną inicjatywą, o której warto wspomnieć na koniec, jest PauseAI. Jest to organizacja nawołująca do globalnej przerwy w trenowaniu modeli AI większych niż GPT-4. Postulowana przerwa trwałaby do czasu rozwiązania problemu zgodności celów AI i zagwarantowania demokratycznej kontroli nad modelami. Popieram. A na pytanie: gdzie są luddyści, kiedy ich najbardziej potrzebujemy, odpowiadam – może właśnie tu? Tylko, że potrzebujemy takich luddystów o wiele, wiele więcej.

Reasumując, nie wiem jak Wy, ale ja nie zgadzam się na to, żeby kilka firm grało w rosyjską ruletkę z całą ludzkością. Jak powiedział Max Tegmark: to już nawet nie jest nawet wyścig zbrojeń, to jest wyścig samobójczy. Wystarczy.

Czytaj też„Przyspieszacze” AI wygrywają, a AI doomerzy przegrywają. Szybciej pojedziemy ku katastrofie?

Źródło zdjęcia: Axel Richter/Unsplash

Home Strona główna Subiektywnie o finansach
Skip to content email-icon