5 czerwca 2024

„Przyspieszacze” AI wygrywają, a AI doomerzy przegrywają. Szybciej pojedziemy ku katastrofie?

Czy stworzenie nadludzkiej sztucznej inteligencji (AGI) może doprowadzić nas do zagłady, jak ostrzegają nas tzw. AI doomerzy? Czy też korzyści z AI są tak wielkie, że nie mamy chwili na wahanie i musimy jak najszybciej budować nowe lepsze modele, jak chcieliby tzw. „przyspieszacze” (accelerationists)? Tak naprawdę – nie wiemy. Jednak mamy powody sądzić, że to ci drudzy chwilowo wygrywają w walce o serca decydentów – przynajmniej tych w najważniejszej firmie branży, czyli OpenAI.

Parę tygodni temu świat AI zelektryzowała wieść o tym, że z OpenAI, twórcy ChatGPT, odchodzi jedna z najbardziej znanych i szanowanych postaci firmy – jej główny naukowiec Ilya Sutskever, który ostrzegał przed konsekwencjami stworzenia sztucznej inteligencji o umiejętnościach przekraczających te ludzkie. Zelektryzowało tym bardziej, że tuż po nim odszedł jego najbliższy współpracownik Jan Leike, a OpenAI rozwiązało zespół, który miał przygotować firmę, od strony bezpieczeństwa, na nadejście sztucznej superinteligencji. Stało się jasne, że jak to gorzko określił Leike, bezpieczeństwo znalazło się w firmie „na tylnym siedzeniu”, ustępując „błyszczącym produktom”.

W firmie, która jest bodaj najważniejsza dla branży.

Co może pójść źle i jak zapewnić przyjazną AI

Co może pójść źle ze sztuczną inteligencją? Po pierwsze, jak przypuszczamy, może w pewnym momencie uzyskać samoświadomość, a następnie postępować zgodnie z własnymi celami. Może być też tak, że ze względu na błąd ludzki – czy to przy projektowaniu architektury modelu, czy to przy jego trenowaniu – coś pójdzie źle. I po prostu model, nawet bez świadomości, zacznie robić rzeczy, których nie powinien. A bądźcie pewni, że jak już nam się urwie ze smyczy, to będzie wiedział jak narobić szkód! W końcu przeczytał cały internet, z kryminałami i powieściami szpiegowskimi włącznie. Więc pewnym minimum bezpieczeństwa jest zapewnienie, by cele sztucznej inteligencji były zbieżne z celami ludzi – to tak zwany problem zgodności celów.

Twórcy sztucznej inteligencji muszą zadbać o to, by zachowywała się ona w sposób pożądany. By nie zrobiła niczego szkodliwego czy bezsensownego. Przy obecnych systemach AI osiąga się to zwykle poprzez zastosowanie tzw. uczenia ze wzmocnieniem z ludzką informacją zwrotną (ang. Reinforcement Learning from Human Feedback, RLHF), a więc techniki, w której to człowiek wybiera jedną z proponowanych przez system AI odpowiedzi, a system wbudowuje taką odpowiedź w swój model.

O problemie zgodności celów i jego implikacjach pisał szerzej na naszych łamach prof. Jakub Growiec.

Czy ludzkość powinna się bać sztucznej superinteligencji?

Niestety, to co nieźle działa w przypadku obecnych systemów, niekoniecznie sprawdzi się w przypadku superinteligencji (Artificial General Intelligence, AGI). Problem ten opisało swego czasu OpenAI we wpisie na blogu:

„Nasze obecne techniki zapewnienia zgodności celów AI, takie jak RLHF, polegają na zdolności ludzi do nadzorowania AI. Ale ludzie nie będą w stanie skutecznie nadzorować systemów sztucznej inteligencji, które będą znacznie od nas inteligentniejsze, tak więc obecnych technik zapewniania zgodności celów nie można przeskalować do superinteligencji. Potrzebujemy przełomów naukowych i technicznych”.

Z tymi słowami na pewno w dużej mierze zgadza się spora grupa naukowców i praktyków AI, którzy stwierdzili, że AI, a zwłaszcza AGI, stanowią zagrożenie dla człowieka.

AI doomerzy, czyli prorocy zagłady

Kim są AI doomerzy, prorocy spowodowanej przez AI zagłady, i przed czym nas ostrzegają? To ci, którzy w szybkim rozwoju AI widzą przede wszystkim zagrożenia. Jednym z najbardziej prominentnych doomerów jest Geoffrey Hinton, jeden z twórców uczenia głębokiego (ang. deep learning), który od jakiegoś czasu ostrzega przed konsekwencjami rozwoju AI i uważa, że już teraz modele wykazują się inteligencją. Ponadto Hinton wierzy, że nie jesteśmy w stanie zapobiec użyciu sztucznej inteligencji przez „złych graczy” (ang. bad actors) – czyli ludzi, organizacji czy państw o złych intencjach. Hinton opuścił Google by, jak twierdzi, móc z pełną swobodą ostrzegać o niebezpieczeństwach AI.

Nie tylko Hinton boi się rozwoju sztucznej inteligencji. O niebezpieczeństwach AI ostrzega ponad 20 reprezentantów uniwersytetów i instytutów badawczych, którzy podpisali list otwarty o konieczności zarządzania ryzykami związanymi z AI. W liście tym napisali:

„Jak tylko autonomiczne systemy sztucznej inteligencji zaczną realizować niepożądane cele, zaprogramowane przez złośliwych aktorów lub powstałe przypadkowo, możemy stracić nad nimi kontrolę (…) Sztuczna inteligencja robi postępy w krytycznych obszarach, takich jak włamania, manipulacja społeczna, oszustwa i planowanie strategiczne. Zaawansowane autonomiczne systemy sztucznej inteligencji będą stanowić bezprecedensowe wyzwania związane z kontrolą.”

Pesymistyczne poglądy doomerów AI w dużej mierze podzielał w innym swym artykule prof. Jakub Growiec.

Jakie są zagrożenia związane z rozwojem AI? Doomerzy ostrzegają

Mamy więc dwa potencjalne zagrożenia: użycie AI przez „złych graczy”, o którym wspominał Hinton, i realizowanie niepożądanych celów „przypadkowo” – a więc wtedy, gdy sztuczna inteligencja po prostu wymknie nam się spod kontroli. Jakie mogłoby to rodzić zagrożenia? Czytajmy dalej:

„Aby uniknąć interwencji człowieka, [systemy AI] mogłyby kopiować swoje algorytmy w sieciach serwerów na całym świecie, tak jak robią to robaki komputerowe. Asystenci AI już teraz współtworzą znaczną część kodu komputerowego na całym świecie; przyszłe systemy AI mogłyby wprowadzać, a następnie wykorzystywać luki w zabezpieczeniach, aby kontrolować systemy komputerowe stojące za naszą komunikacją, mediami, bankowością, łańcuchami dostaw, armią i rządami. W otwartym konflikcie systemy AI mogłyby grozić użyciem broni autonomicznej lub biologicznej lub faktycznie jej użyć. Systemy AI mające dostęp do takiej technologii jedynie kontynuowałyby istniejące trendy automatyzacji działań wojskowych, badań biologicznych i samego rozwoju AI.”

Niewesoła to wizja, jednak nie wszyscy ją podzielają.

„Przyspieszacze” technologii, czyli religia AGI

Są tacy, dla których postęp techniczny, zwłaszcza związany z rozwojem nadludzkiej sztucznej inteligencji (AGI), jak najszybciej się da, jest celem podstawowym – to zwolennicy effective accelerationism, czyli „przyspieszacze” technologiczni.

Wierzą oni, że podstawą dla rozwoju ludzkości jest usunięcie wszelkich barier w budowaniu sztucznej inteligencji, by jak najszybciej osiągnąć AGI, bo, według nich, korzyści z opracowania AGI będą dużo większe niż związane z nią ryzyka. Jednym z najbardziej prominentnych zwolenników tej teorii jest Marc Andreessen, założyciel Netscape’a i znany inwestor.

Sceptycy AGI – po co nam zbieżność celów, jak nie mamy AGI (i szybko mieć nie będziemy)

Doomerzy AI i przyspieszacze to za mało w konflikcie o bezpieczeństwo AI? Trzecią grupą w dyskusji nad potrzebą większej kontroli nad systemami AI stanowią ci, którzy po prostu nie wierzą, że osiągnięcie AGI to kwestia najbliższej przyszłości, więc uważają, że zajmowanie się skomplikowanymi systemami, które mogłyby ją kontrolować, jest w chwili obecnej stratą czasu.

Tutaj bodaj najważniejszą postacią jest Yann LeCun, kolejny z ojców chrzestnych uczenia głębokiego i szef komórki Mety odpowiedzialnej za sztuczną inteligencję. W odpowiedzi na tweet Jana Leike wzywającego do jak najszybszego opracowania systemu kontrolującego inteligentniejsze od nas systemy AI, LeCun napisał z sakrazmem: „Zdaje mi się, że zanim 'pilnie będziemy rozgryzać, jak kontrolować systemy sztucznej inteligencji znacznie mądrzejsze od nas’, potrzebujemy choćby zalążka pomysłu na system mądrzejszy od kota domowego.”

Dość dobrze stosunek tej grupy sceptyków do odejścia Sutskevera i likwidacji jego zespołu oddaje tweet Daniela Jeffriesa, autora i futurologa, który stwierdził, że OpenAI „powoli i prawidłowo pozbawiało ich mocy obliczeniowych, które mogą być użyte w sposób bardziej użyteczny do budowania nowych funkcjonalności ich produktów.”

W OpenAI co najwyżej produktowa zgodność celów

Co będzie z bezpieczeństwem AI w OpenAI po odejściu Sutskevera? Na bieżąco – pewnie tak dużo się nie zmieni. Co prawda z firmy odchodzą kolejni pracownicy, dla których bezpieczeństwo było najważniejsze (jak się okazuje, Sutskever i Leike bynajmniej nie byli pierwsi) to firma obiecuje dbać o bezpieczeństwo swoich produktów, które, jak ostatnio powiedział szef OpenAI Sam Altman są obecnie „wystarczająco bezpieczne.”

Ale, jak przyznają we wpisie na portalu X Altman i jego najbliższy współpracownik Greg Brockman, przyszłe systemy będą wymagały więcej starań w dziedzinie bezpieczeństwa. Jak wyjaśniają:

„Wraz z rozwojem coraz bardziej zaawansowanych modeli, spodziewamy się, że zostaną one głębiej zintegrowane ze światem. Użytkownicy będą coraz częściej wchodzić w interakcję z systemami – złożonymi z wielu wielomodalnych modeli i narzędzi – które mogą podejmować działania w ich imieniu, zamiast komunikować się z pojedynczym modelem obsługującym tylko tekstowe dane wejściowe i wyjściowe.”

Nowe systemy mogą wymagać więcej pracy by osiągnąć założone poziomy bezpieczeństwa i to może spowolnić ich upublicznienie, odnotowują szefowie AI. Praca nad bezpieczeństwem takich systemów będzie wymagała częstych informacji zwrotnych, rygorystycznego testowania i światowej klasy bezpieczeństwa.

Brzmi wystarczająco bezpiecznie? Nie wszyscy są przekonani. Scott Rosenberg z serwisu Axios odnotował: „Altman zawsze mówił o odpowiedzialności i ostrożności, ale pod jego kierownictwem OpenAI naciska cały czas gaz do dechy. Mimo że czasami nadal może brzmieć jak doomer lub etyk [AI] – to jednak działa jak przyspieszacz.”

Dodatkowo, jeśli będziemy się zbliżać do AGI, to będzie rosło ryzyko „emergent abilities” a więc takich umiejętności modelu AI, do których nie był on w ogóle trenowany. Do takich niespodzianek, zwłaszcza jeżeli pójdą one w niewłaściwą stronę, mogą nie być przygotowane zespoły dbające o bezpieczeństwo pojedynczych produktów.

Takimi niespodziankami miał się zajmować właśnie zespół „superzgodności” celów. Czas pokaże, czy możemy liczyć na poważne podejście do tematu, czy tylko na stworzenie superzespołu, którego jedynym celem jest zamknięcie ust AI doomerów.

Przyspieszyliśmy na drodze ku katastrofie?

Czy więc przyspieszyliśmy na drodze do katastrofy, czy też nic się nie stało? To, jak to często w życiu bywa, zależy. O ile beztroski punkt widzenia czystych „przyspieszaczy” jest trudny do obronienia, o tyle to, czy rację mają sceptycy AGI w rodzaju LeCuna czy AI doomerzy w rodzaju Sutskevera i Hintona, zależy w dużej mierze od tego, jak blisko jesteśmy opracowania AGI. I czym ona będzie – czy superinteligencją, przy której nasza będzie wydawała się tylko karzełkiem, czy inteligencję raczej na naszym poziomie, po prostu więcej wiedzącą, bo przetrawiła praktycznie cały internet.

Źródło zdjęcia: Axel Richter/Unsplash

Home Strona główna Subiektywnie o finansach
Skip to content email-icon