30 marca 2024

Kiedy sztuczna inteligencja osiągnie poziom człowieka? I co to będzie dla nas oznaczać?

Wiele osób zadaje sobie pytanie, kiedy sztuczna inteligencja (ogólnego zastosowania – AGI) osiągnie poziom człowieka? Niezależnie od tego, czy będzie to tuż przed rokiem 2030 czy 10 lat później, wskazywana przez ekspertów perspektywa jest raczej dość bliska, liczona w latach a nie w dekadach. Co to będzie dla nas oznaczać? Czy stracimy jako ludzie wpływ na kształtowanie naszego życia i rzeczywistości wokół nas?

Wiele osób zadaje sobie pytanie, kiedy sztuczna inteligencja (ogólnego zastosowania – AGI) osiągnie poziom człowieka? Niezależnie od tego, czy będzie to tuż przed rokiem 2030 czy 10 lat później, wskazywana przez ekspertów perspektywa jest raczej dość bliska, liczona w latach a nie w dekadach. Co to będzie dla nas oznaczać? Czy stracimy jako ludzie wpływ na kształtowanie naszego życia i rzeczywistości wokół nas?

Czytacie 1. część cyklu artykułów poświęconych sztucznej inteligencji ogólnego zastosowania (AGI). W 2. części prof. Jakub Growiec przewiduje, że AGI nas – jako ludzkość – zabije, a w 3. części cyklu przeczytamy przemyślenia prof. Jakuba Growca na temat tego, czy AGI może być nam – jako ludzkości – przyjazna.

Według najnowszych prognoz z portalu Metaculus, sztuczna inteligencja najprawdopodobniej osiągnie poziom ogólnej inteligencji człowieka w 2031 r. Zdaniem lidera branży, firmy OpenAI, może to nastąpić jeszcze szybciej, przed 2030 r. Tak krótka perspektywa każe zrewidować naszą wizję przyszłości. Dla własnego dobra powinniśmy takie ćwiczenie wykonać czym prędzej.

Wyobraźmy sobie na nowo nasz świat

Podstawą dla wyobrażenia sobie świata, w którym obecne są algorytmy sztucznej inteligencji (AI) na poziomie człowieka, albo też i wyższym, jest zrozumienie, o czym konkretnie mówimy. Przecież ludzie różnią się między sobą poziomem posiadanej wiedzy, kreatywności czy sprytu, mają różne zestawy kompetencji. Co więcej, dzięki współpracy oraz umiejętności hierarchicznej organizacji pracy potrafią osiągać cele daleko wykraczające poza to, czego jakikolwiek człowiek mógłby dokonać w pojedynkę.

Jednocześnie w zakresie wybranych, wąsko zdefiniowanych zadań sztuczna inteligencja już dawno prześcignęła człowieka – nie mamy z nią szans np. w grze w szachy, Go, czy w szeregu gier komputerowych, jak np. Starcraft. Algorytmy AI doskonale wynajdują też najszybszą trasę przejazdu czy rekomendacje w serwisach internetowych.

Tym razem mówimy jednak o sztucznej inteligencji ogólnego zastosowania, tzw. AGI (Artificial General Intelligence). Przywołana w serwisie Metaculus prognoza opiera się na definicji AGI jako algorytmu realizującego z powodzeniem 4 benchmarki: (1) przekonującej i wszechstronnej imitacji człowieka (rozszerzony test Turinga), (2) zdolności robotycznych ogólnego zastosowania, (3) kompetencji poznawczych (rozwiązywanie testów), oraz (4) kompetencji programistycznych.

Wyniki algorytmów porównywane są każdorazowo z najwyższymi możliwymi kompetencjami człowieka – a więc nie pytamy, kiedy AGI będzie np. programować lepiej niż przeciętny człowiek (który w ogóle nie potrafi programować), lecz kiedy będzie to robić lepiej niż najlepsi eksperci w branży.

Inna dynamika rozwoju cywilizacji

Moment powstania AGI jest bardzo ważną cezurą czasową, gdyż będzie on oznaczał jakościową zmianę dynamiki rozwoju światowej cywilizacji. Po pierwsze, należy się spodziewać, że jak tylko AGI osiągnie poziom człowieka, to już za moment go znacząco przekroczy. Wysokie kompetencje poznawcze i programistyczne pozwolą bowiem AGI na kontynuację własnego rozwoju. W przeciwieństwie do ograniczonej pojemności mózgu człowieka, algorytmy AI mogą przecież korzystać z dowolnie dużych mocy obliczeniowych, ograniczanych jedynie dostępnością hardware’u i energii elektrycznej.

Po drugie, AGI „myśląca” lepiej (a jednocześnie o wiele szybciej) niż człowiek z dużym prawdopodobieństwem przejmie procesy decyzyjne – czy to w firmach, czy na poziomie rządów, czy ogólnie w każdym wymiarze naszej cywilizacji. Już dziś rosnące kompetencje AI sprawiają, że coraz więcej decyzji jest podejmowanych w sposób autonomiczny, bez udziału człowieka. Dobrym przykładem są tu rynki finansowe z ich algorytmicznym tradingiem.

Na razie jednak kluczowe decyzje są w rękach ludzi, którzy w ostateczności mogą nawet wyłączyć algorytmy AI. W świecie z AGI tak już jednak nie będzie, gdyż na mocy tzw. konwergencji celów pomocniczych (instrumental convergence) algorytmy te, po przekroczeniu poziomu inteligencji człowieka, nie pozwolą się wyłączyć oraz przejmą światowe procesy decyzyjne siebie, podnosząc w ten sposób efektywność realizacji własnych celów oraz gwarantując sobie dostęp do zasobów.

Po trzecie, AGI będzie mogła zautomatyzować wszystkie istotne procesy w gospodarce. Historia wynalazczości uczy, że zastąpienie człowieka maszyną często prowadzi do znaczących wzrostów produktywności. Jednak całkowite wyeliminowanie wąskich gardeł w produkcji, wynikających z relatywnie powolnej pracy człowieka, może te wzrosty dodatkowo zwielokrotnić. Wystarczy porównać dwie liczby: tempo wzrostu gospodarczego wynosi dziś przeciętnie (w skali świata) 2-3% w skali roku, podczas gdy moc obliczeniowa komputerów oraz przesył danych rosną średnio o 20-30% rocznie. Oznacza to, że pełna automatyzacja produkcji przez AGI może przyspieszyć wzrost gospodarczy nawet o cały rząd wielkości. Z drugiej strony, wkład pracy człowieka w tworzenie wartości dodanej będzie wówczas spadał, potencjalnie nawet do zera.

Zmiany – głębokie i nieodwracalne

Z punktu widzenia gospodarki i polityki, powstanie AGI zdaje się zatem prowadzić do osobliwości (singularity) – głębokich, nieodwracalnych zmian, całkowicie transformujących naszą cywilizację. Dla człowieka oznacza to z jednej strony szansę na skokowy wzrost jakości życia lub możliwość obserwacji podboju kosmosu, ale z drugiej strony też – ryzyko całkowitej katastrofy, wskutek której gatunek ludzki przestanie istnieć.

W istocie AGI jest dziś najważniejszym źródłem ryzyka egzystencjalnego dla ludzkości, a moment jej powstania może być dla nas wszystkich początkiem końca. O tym postaram się napisać osobny tekst. Krytyczne jest przy tym pytanie, czy cele AGI wpisane w jej algorytm będą wspierać długookresowy dobrostan ludzkości. Jest to tzw. alignment problem (problem zgodności celów), bardzo trudny filozoficzny problem, wymagający pilnego rozwiązania, o czym także chętnie napiszę.

Wróćmy jednak do kwestii daty możliwego powstania AGI. Prześledźmy spektrum prognoz, które są w tym kontekście formułowane. Na jednym końcu tego spektrum mamy oczywiście prognozy mówiące, że AGI nigdy nie powstanie. Wśród społeczeństwa ogółem, a także w szczególności wśród polityków czy ekonomistów, pogląd taki wydaje się naturalny i powszechny.

Był on jednak podzielany przez zaledwie 1% ekspertów AI ankietowanych w 2022 r., co może wskazywać na to, że powszechność tego poglądu w populacji ogólnej wynika raczej z naturalnej ludzkiej skłonności do ekstrapolacji status quo w przyszłość, niż z jakichkolwiek podstaw merytorycznych. Często jest przy tym przywoływane przekonanie (którego eksperci AI raczej nie podzielają), że inteligencja człowieka ma unikatowy charakter, a ludzkiego rozumienia spraw nie da się zasymulować na komputerze.

Dużym przełomem zarówno w kontekście rozwoju algorytmów sztucznej inteligencji, jak i w kontekście społecznej percepcji zakresu ich możliwości, był ChatGPT, zwłaszcza w wersji GPT-4 udostępnionej użytkownikom w marcu 2023 r. Wtedy to duże grupy osób na własne oczy przekonały się, że AI może być wszechstronna, może w ludzkim sensie rozumieć, a ponadto może wykazywać się autentyczną kreatywnością – co dotąd wydawało się zarezerwowane wyłącznie dla ludzi. GPT-4 pokazał, że w świecie tzw. dużych modeli językowych ilość przechodzi w jakość: sam wzrost skali modelu sieci neuronowej może powodować pojawianie się zupełnie nowych kompetencji, nieobecnych w modelach mniejszych.

Świat po ChatGPT

Również wśród ekspertów AI pojawienie się ChataGPT i GPT-4 mocno przesunęło prognozy czasu nadejścia AGI. O ile przed ChatemGPT medianowa prognoza w serwise Metaculus oscylowała wokół 2055 r., o tyle po upublicznieniu ChataGPT przesunęła się ona na ok. 2040 r., a po GPT-4 – na obecny 2031 r.

Podobnie Ajeya Cotra, autorka często przywoływanego raportu z 2020 r., w którym w oparciu o złożony model probabilistyczny szacowała, że AGI pojawi się najprawdopodobniej ok. 2050 r., w świetle nowych danych przesunęła swoją centralną prognozę na 2040 r.

Wreszcie sami autorzy GPT-4 z firmy OpenAI widzą możliwość powstania AGI nawet w ciągu bieżącej dekady, czyli przed 2030 r.

Oczywiście nie jest pewne, czy przesunięcie prognoz po wprowadzeniu ChataGPT i GPT-4 stanowi adekwatny sygnał. Czy GPT-4 naprawdę dostarczył nam nowej wiedzy na temat własności dużych modeli językowych, a może jedynie wywołał sztuczny hype – modę, która przeminie?

Warto jednak zwrócić uwagę, że nawet w tym drugim przypadku perspektywa pojawienia się AGI pozostaje całkiem bliska, mianowicie ok. 2050 r. Na marginesie warto wspomnieć, że osobliwość w rozwoju naszej cywilizacji prognozował na ok. 2050 r. już dwadzieścia lat temu sławny futurysta Ray Kurzweil, a podobnych terminów osobliwości dostarczają też analizy dopasowujące krzywe hiperboliczne do długofalowych danych dotyczących światowej gospodarki.

Zarówno 2031 r., jak i 2040 r. czy nawet 2050 r. to niepokojąco bliska perspektywa, sugerująca, że z dużym prawdopodobieństwem nadejście AGI będzie stanowiło dla większości świata zaskoczenie; ludzkość w żadnym stopniu nie będzie na to przygotowana. W szczególności nie będziemy mieli wiedzy, pozwalającej tak sformułować cele rozwijanych algorytmów AI, by były one spójne z dobrem ludzkości i gwarantowały nam dobrą (albo chociaż jakąkolwiek) przyszłość. Bezpieczeństwo zaawansowanych algorytmów AI to temat badawczy zasługujący dziś na najwyższy priorytet.

 

Czytaj też: Gorączka sztucznej inteligencji. Efekt? Koncentracja biznesu w największych metropoliach

Źródło zdjęcia: Milad Fakurian/Unsplash

Home Strona główna Subiektywnie o finansach
Skip to content email-icon