Kolejne modele AI coraz bardziej zadziwiają. Rozwiązują coraz trudniejsze zadania i wykazują oznaki pewnego rodzaju myślenia. Jednak „myślenie” komputera może bardzo różnić się od ludzkiego. Nasze myślenie, według wielu ekspertów, może być wzorem nie do dogonienia jeszcze przez wiele dekad.
Czy komputer ma już rozum?
O1 – nowy system OpenAI, „myśli” znacząco więcej od poprzednika. Tak przynajmniej twierdzą twórcy systemu. Dzięki tej umiejętności ma dawać dużo mądrzejsze odpowiedzi i rzadziej ma skłonność poddawać się tzw. halucynacjom. Może też lepiej radzić sobie ze złożonymi problemami – logicznymi, matematycznymi, programistycznymi, technicznymi czy naukowymi.
Podczas, gdy na przykład ChatGPT 4.0 poprawnie rozwiązał 13% zadań z egzaminu kwalifikującego do Międzynarodowej Olimpiady Matematycznej, to O1 – aż 83%. Na czym wspomniane „myślenie” polega?
Model GPT opera się na regułach języka i na tej podstawie generuje odpowiedzi. Jeśli mówi o krześle czy samochodzie, tak naprawdę tych słów nie odnosi do żadnych pojęć. Nie „wie”, czym krzesło albo samochód jest, jak wygląda itp.
Nowe podejście jest podobne, ale dodatkowo wykorzystuje technikę zwaną łańcuchami myśli. W uproszczeniu wygląda to tak: mówiąc, system rozbija przedstawiony przez użytkownika problem na kolejne kroki i analizuje każdy z nich po kolei, uwzględniając wynik poprzedniego. Jednocześnie rozważa różne rozwiązania i wybiera najlepsze.
O1 poradzi sobie na przykład z tak złożonym zapytaniem, jak to podane jako ilustrację przez OpenAI. „Księżniczka ma tyle lat, ile będzie miał książę, kiedy księżniczka będzie dwa razy starsza od księcia w czasie kiedy wiek księżniczki wynosił połowę sumy ich obecnego wieku. Jaki jest wiek księcia i księżniczki? Podaj wszystkie rozwiązania”.
System nie tylko podaje odpowiedź, ale przedstawia wszystkie kroki rozumowania.
Analogie, symulacje, rozumowanie…
Czy więc sztuczna inteligencja zmierza w kierunku rzeczywistego myślenia? Na pewno byłoby to pożądane. Naukowcy z Princeton University zwracają uwagę, że niektóre z największych odkryć to nie owoce jedynie obserwacji świata, lecz właśnie abstrakcyjnego myślenia. Za przykład podają dokonania Einsteina, który opracował teorię względności dzięki eksperymentom myślowym czy Galileusza, który w podobny sposób wyprowadził wnioski dotyczące grawitacji.
W publikacji, która ukazała się niedawno w piśmie „Trends in Cognitive Sciences” naukowcy twierdzą, że procesy myślowe to nie tylko domena ludzi,. Dzisiaj, do pewnego stopnia – także komputerów. Jak twierdzą, sztuczna inteligencja jest zdolna do poprawiania samej siebie i wyciągania nowych wniosków dzięki nauce poprzez myślenie.
„Można wskazać niedawne demonstracje czegoś, co wygląda na uczenie się poprzez myślenie w AI, szczególnie w przypadku dużych modeli językowych”. Tak uważa prof. Tania Lombrozo, autorka pracy. „Czasami ChatGPT koryguje sam siebie, bez wyraźnych wskazówek. Jest to podobne do tego, co dzieje się, gdy ludzie uczą się właśnie przez myślenie” – dodaje specjalistka.
Cztery kluczowe przykłady naszego myślenia
Ona i jej koledzy podają cztery przykłady sposobów uczenia się poprzez myślenie, obecnych zarówno u ludzi, jak i w modelu AI. Wymieniają w tym przypadku: wyjaśnianie, symulację, analogię i rozumowanie.
Ludzkie tłumaczenie dziecku, jak działa mikrofalówka, może ujawnić luki w rozumieniu (wyjaśnianie). Przestawianie mebli w salonie często wymaga stworzenia wcześniej obrazu mentalnego przyszłego wyglądu pokoju (symulacja). Pobieranie pirackiego oprogramowania może początkowo wydawać się moralnie akceptowalne, dopóki nie porówna się tego do kradzieży dóbr materialnych (analogia). Jeśli ktoś wie, że urodziny jego przyjaciela przypadają w dzień przestępny, a jutro jest taki dzień, może wywnioskować, że jego urodziny są jutro (rozumowanie).
Jak dalej wyjaśniają badacze, w AI zachodzą podobne procesy uczenia się. Gdy poprosi się model o rozwinięcie złożonego tematu, może on poprawić lub udoskonalić swoją początkową odpowiedź na podstawie udzielonego wyjaśnienia. Np. w grach wykorzystuje silniki symulacyjne do przybliżania rzeczywistych wyników. Modele mogą wykorzystywać wyniki tych symulacji jako dane wejściowe do uczenia się. Jeśli poprosimy model językowy, żeby wykorzystał w swoim myśleniu analogię, może udzielić trafniejszych odpowiedzi, niż przy prostych pytaniach.
Zachęcenie AI do zaangażowania się w rozumowanie krok po kroku może doprowadzić model do odpowiedzi, których nie osiągnąłby przy bezpośrednim zapytaniu. Naukowcy przyznają jednak, że trudno jest wyznaczyć granice między rozumowaniem, uczeniem się i innymi zaawansowanymi funkcjami poznawczymi. Nadal stanowi to przedmiot gorących dyskusji w dziedzinie nauk kognitywnych. Przedstawiony przegląd wskazuje też kolejne pytania: czy systemy AI rzeczywiście „myślą”, czy jedynie naśladują wyniki takich procesów?
Piesek w chmurze nie dla komputera?
Czy opisane „myślenie” oznacza, że AI staje się już podobna do ludzkiego umysłu? Na rozgrzewkę do odpowiedzi na to pytanie warto spojrzeć na eksperyment opisany właśnie przez grupę z Massachusetts Institute of Technology. Tym razem naukowcy przyjrzeli się, jak AI radzi sobie z czymś, co ludziom przychodzi naturalnie i większość osób zapewne wielokrotnie tego doświadczyło. Chodzi o pareidolię, czyli dostrzeganie znanych kształtów – np. zwierząt – w nieregularnych formach, takich jak chmury.
„Pareidolia od dawna fascynuje psychologów, ale w społeczności zajmującej się widzeniem komputerowym była niedostatecznie zbadana. Chcieliśmy stworzyć zasób, który pomógłby nam zrozumieć, jak ludzie, i systemy AI przetwarzają tego typu iluzoryczne obrazy” – mówi Mark Hamilton, główny autor badania.
Ekspert i jego zespół podali systemowi AI 5 tys. tego typu zdjęć, na których ludzie dostrzegali postacie zwierząt. Początkowo AI słabo sobie radziła z dostrzeganiem nieoczywistych kształtów. Sytuacja diametralnie się zmieniła, kiedy naukowcy, przed pokazaniem tych zdjęć, wyszkolili AI w zakresie właśnie rozpoznawania zwierząt.
Ten wynik, zdaniem badaczy może prowadzić do ważnych wniosków. Zdolność człowieka do rozpoznawania postaci zwierząt może wynikać z ewolucyjnego przystosowania, które pomagało naszym przodkom unikać niebezpieczeństw, żeby przetrwać.
„Taki wynik wydaje się sugerować, że pareidolia może nie wynikać z ludzkiego zachowania społecznego, lecz z czegoś głębszego. Na przykład z konieczności szybkiego dostrzegania czającego się tygrysa lub orientowania się, w którą stronę patrzy jeleń, tak aby nasi prymitywni przodkowie mogli polować” – wyjaśnia Hamilton. To może oznaczać, że także inne typowe dla ludzi zdolności są uwarunkowane ewolucyjnie i nie będą samoczynnie wynikały z typowego szkolenia AI.
Wiele procesów AI nie do osiągnięcia dla ludzi?
Jednocześnie sztuczna inteligencja często uczy się na zupełnie innych zasadach, niż ludzki umysł. Na przykład program szachowy, który wygrywa z mistrzami, analizuje w ułamku sekundy niezliczone kombinacje ruchów czyli robi coś, co jest poza zasięgiem ludzi. Przy odpowiedniej mocy obliczeniowej żaden człowiek nie będzie miał prawdopodobnie szans w takiej rozgrywce.
To wskazuje również, jak zwracają uwagę specjaliści, że sztuczna inteligencja może w niektórych obszarach radzić sobie lepiej od ludzi, tworząc jednak zupełnie inny model świata i odnajdując inne, trudne na razie do przewidzenia i zrozumienia, zależności,. Inne niż te, które dostrzegają ludzkie mózgi.
Jednak czym innym jest stworzenie tzw. ogólnej sztucznej inteligencji, która swobodnie, tak jak człowiek będzie radziła sobie z interakcjami ze światem.
Pod koniec września eksperci z Radboud University opublikowali pracę naukową na ten temat. Stwierdzają w niej, że stworzenie tego typu AI będzie, przynajmniej jeszcze przez kilka kolejnych dekad, niemożliwe. Ich opinia znajduje się więc w opozycji do zdania specjalistów twierdzących, że stworzenie ogólnej sztucznej inteligencji jest teoretycznie możliwe. A wręcz mówiących, że to tylko kwestia czasu, zanim powstaną komputery myślące, jak ludzie.
„Nasza praca wyjaśnia, dlaczego dążenie do tego celu to daremne przedsięwzięcie i marnotrawstwo zasobów ludzkości” – mówi prof. Iris van Rooij, główna autorka opracowania. Badacze przedstawiają eksperyment myślowy, w którym ogólna AI mogłaby być rozwijana w idealnych warunkach.
„Na potrzeby eksperymentu myślowego zakładamy, że inżynierowie mieliby dostęp do wszystkiego, czego mogliby potencjalnie potrzebować. Od idealnych zestawów danych po najbardziej efektywne metody uczenia maszynowego” – dodaje.
Czytaj też: Nowa broń globalnej zagłady jest coraz bliżej. Czy powstanie Projekt Manhattan dla sztucznej inteligencji?
Ale również AGI nie do osiągnięcia!
„Nawet gdybyśmy jednak dali inżynierom wszelkie możliwe udogodnienia, nie istnieje żaden wyobrażalny sposób na osiągnięcie tego, co obiecują wielkie firmy technologiczne” – mówi prof. Olivia Guest, współautorka publikacji.
Według niej i jej zespołu przyczyna leży w specyfice ludzkiego poznania. Poznanie to umiejętność obserwacji, nauki i zdobywania nowych doświadczeń. Jest ono niezwykle trudne do odwzorowania za pomocą AI. Przynajmniej w takiej skali, w jakiej procesy te występują w ludzkim mózgu.
„Jeśli prowadzi się z kimś rozmowę, można przypomnieć sobie coś, co powiedziało się piętnaście minut wcześniej, albo rok wcześniej. Albo coś, co ktoś inny wyjaśnił nam połowę życia temu. Każda z tych informacji może być kluczowa dla rozwinięcia rozmowy. Ludzie robią to bez problemu” – wyjaśnia prof. van Rooij.
„Nigdy nie będzie wystarczającej mocy obliczeniowej, aby stworzyć ogólną AI przy użyciu uczenia maszynowego. Takiej, która potrafiłaby to samo co mózg. Zabrakłoby nam na to zasobów naturalnych, zanim w ogóle zbliżylibyśmy się do tego celu” – dodaje prof. Guest.
Kto ma rację? Jako ludzie nie jesteśmy w stanie tego na razie przesądzić tylko w wyniku naszego myślenia. Musimy poczekać na wyniki tego wielkiego eksperymentu, jakim jest dalszy rozwój AI.
Czytaj też: Obecna GenAI nie myśli? Tak sądzą badacze od Apple
Źródło zdjęcia: Igor Omilaev/Unsplash