Prof. Jakub Growiec opublikował wcześniej na łamach HomoDigital rozważania nt. sztucznej inteligencji ogólnego zastosowania (AGI). Powstały na początku trzy artykuły. W 1. części prof. Jakub Growiec zastanawiał się, kiedy AGI osiągnie poziom inteligencji człowieka, w 2. części mogliśmy przeczytać refleksje autora nt. ryzyka, że AGI nas – jako ludzkość – zabije, a w 3. części autor pytał, czy możliwa jest AGI przyjazna ludziom. Do tego cyklu został dodany czwarty artykuł. W tej 4. części autor zastanawia się, czy nowa broń globalnej zagłady jest coraz bliżej i czy powstanie Projekt Manhattan dla sztucznej inteligencji?
Cykl zyskał dopełnienie w 5. części, która ma charakter przestrogi przed nieroztropnym, zbyt szybkim i pozbawionym kontroli rozwojem AI, co może zwrócić się przeciwko nam, ludziom.Ten ostatni artykuł nosi tytuł: „Jakie jest Twoje p(doom)? Samobójczy wyścig w kierunku AGI trwa”. W niniejszym artykule cytujemy wstęp do całego opowiadania. Opowiadanie nosi tytuł: „Najlepszy z możliwych światów” (PL, 23/02/2025) – opowieść o tym, jak sztuczna inteligencja może wkrótce zniszczyć ludzkość.
Zapraszamy również do wysłuchania i obejrzenia rozmowy Macieja Danielewicza z autorem cyklu artykułów. Wersja audio dostępna tu, a wersja wideo dostępna tu. W tej rozmowie autor opowiadania również przestrzega – ostrożnie z AI!
Poniżej początkowy fragment tekstu prof. Jakuba Growca, będący wprowadzeniem do właściwego opowiadania:
Eksperci są zgodni: nikt nie rozumie, co dokładnie dzieje się wewnątrz współczesnych algorytmów sztucznej inteligencji (AI), tj. modeli wielowarstwowych sieci neuronowych. Nikt też nie potrafi tych procesów kontrolować. Jednocześnie dzięki prawom skalowania (scaling laws), ich kompetencje podlegają systematycznej, dynamicznej poprawie.
Jak powiedział Stephen Hawking, „nie ma takiego prawa fizyki, które by zabraniało, by cząsteczki były zorganizowane w sposób pozwalający na bardziej zaawansowane obliczenia niż organizacja cząsteczek w ludzkim mózgu”. Według serwisu metaculus.com (z dnia 17.02.2025), nadejście ogólnej sztucznej inteligencji (artificial general intelligence – AGI), mądrzejszej od człowieka oraz obdarzonej nadludzką sprawczością, przewidywane jest na początku 2030 r., czyli za około 5 lat. To prognoza medianowa; w praktyce może się to wydarzyć nawet wcześniej (lub później). Według Davidsona (2023), kolejny etap rozwoju AI – okres eksplozji inteligencji, oznaczający przejście od poziomu AGI do poziomu superinteligencji, przewyższającej możliwości całej ludzkości razem wziętej, może potrwać około 3 lat.
Niestety według dzisiejszego stanu wiedzy nie jesteśmy w stanie zagwarantować, że działania AGI będą zgodne z długookresowym dobrem ludzkości. To tzw. alignment problem; nie wiadomo, czy ma on w ogóle jakiekolwiek rozwiązanie, a nawet jeśli je ma, to jest ono na razie nieznane. Dlatego należy przewidywać, że jeśli powstanie AGI, a tym bardziej superinteligencja, z wysokim prawdopodobieństwem ludzkość utraci nad nią kontrolę. Z kolei utrata kontroli z wysokim prawdopodobieństwem oznacza zagrożenie egzystencjalne dla ludzkości. To znaczy, że możemy wszyscy zginąć. Liderzy branży AI otwarcie to przyznają, a mimo to ścigają się w stronę AGI, napędzani presją konkurencyjną i wizjami utopii.
Wielu osobom perspektywa końca ludzkości wydaje się niemożliwa. Myśl o tym, że algorytmy AI, które znamy dziś w formie pomocnych, nieinwazyjnych czatbotów czy copilotów, mogłyby nas w sensie fizycznym unicestwić, wrzucamy do przegródki „science fiction”, ewentualnie „bardzo daleka przyszłość” lub „sprawy, na które nie mam żadnego wpływu” . To naturalna reakcja, przywracająca nam spokój i dobre samopoczucie. Niestety, jest to też poważny błąd, potencjalnie śmiertelny. Poniższa opowieść pokazuje, w jaki sposób nawet pozornie przyjazna AGI może nas, w perspektywie kilku-kilkunastu lat, nie tylko pozbawić władzy nad światem, ale i zabić.
Wszystkich.
Jeszcze jest czas, by to zatrzymać.
Całość opowiadania dostępna w pliku:
„Najlepszy z możliwych światów” (PL, 23/02/2025) – opowieść o tym, jak sztuczna inteligencja może wkrótce zniszczyć ludzkość.
Źródło grafiki: Google DeepMind/Unsplash