Każdy, kto ma w domu jakieś zwierzę – psa, kota, czy papugę – i od czasu do czasu przygląda mu się uważnie, z łatwością zrozumie, że sztuczna inteligencja jeszcze długo nie dogoni naszych futrzanych przyjaciół. Nie mówiąc już o nas samych.
Bo nawet jeśli ukochany Maurycy, czy Fistaszek, przez cały dzień właściwie tylko je i pochrapuje na fotelu, to w dowolnej chwili może gdzieś pobiec, skoczyć i wylądować na czterech łapach. A także uważnie słuchać (szczególnie odgłosów dobiegających z kuchni), patrzeć (na każdy znikający kęs kanapki), szybko się uczyć i bawić. Może też być szczęśliwy, smutny, może śnić, czasami bać się czegoś, albo z kolei gonić za piłeczką, jeść, walczyć, uciekać, rozmnażać się i dbać o swoje potomstwo. W sumie można by wymieniać w nieskończoność.
Inteligencja i zdolności poznawcze
Każde z tych działań wymaga złożonych procesów, które nie są bezpośrednio „zaawansowaną inteligencją” w najbardziej powszechnym rozumieniu, ale bez wątpienia angażują zdolności poznawcze i mózg zwierzaka. Zdolności te mają wszystkie zwierzęta. Począwszy od pająka, który tka bardzo skomplikowane sieci, po psa ratownika, który pomaga znaleźć ofiary lawiny śnieżnej.
Poza tym, przyznajmy, że niektóre zwierzęta są całkiem niezłe w skutecznym komunikowaniu się. Oczywiście nie używają do tego mowy, choć koty i psy nie wahają się posłużyć się własną mową ciała i wokalizacją. Czyli miauczeniem, szczekaniem i merdaniem ogonem. Tak, aby uzyskać dokładnie to, czego chcą.
Na przykład kot. Tak, ten futrzany łobuz rozciągnięty na fotelu. Przekazywane przez niego komunikaty, na przykład kiedy ociera się o nogę, siada przed miską lub drzwiami, są całkiem jasne. Chce być pogłaskany, jest głodny lub chce wyjść. A potem wejść. I znowu wyjść… Zaważyliście, że koty są zawsze po złej stronie drzwi?
Jednak koty i psy świetnie współpracują ze „swoim człowiekiem”, kiedy chcą osiągać jakiś cel. Czasami mam wręcz wrażenie, że jedynym słabym elementem całego systemu, jest lekko tępy człowiek, który uparcie nie chce zrozumieć intencji zwierzaka.
Złożone procesy poruszania się
Wśród wszystkich zdolności poznawczych jest tylko kilka, których zdołaliśmy nauczyć zaawansowane systemy AI.
Na przykład poruszanie się na dwóch nogach, które dla nas jest łatwe i naturalne, a w rzeczywistości jest niezwykle skomplikowanym procesem. Dziecko uczy się chodzić średnio przez rok, co pokazuje złożoność tego, co może wydawać się „prostym” problemem. I mówimy teraz tylko o chodzeniu, a nie o jeździe na nartach, czy, powiedzmy, grze w koszykówkę.
Dlatego zbudowanie i zaprogramowanie robota, który porusza się, jako tako, na dwóch nogach, zajęło dekady intensywnych badań i prac konstrukcyjnych. I chociaż teraz zachwycają nas tańczące roboty Boston Dynamics, to pamiętajmy, że ich taniec jest efektem konkretnych rozwiązań i nie oznacza, że te same roboty będą w stanie przerwać pląsy i pójść zrobić coś innego, np. pograć w piłkę nożną.
Zaprojektowanie i zbudowanie dwunożnych robotów, które z powodzeniem mogłyby uprawiać ten niezwykle popularny sport, jest jednym z największych wyzwań robotyki autonomicznej. W 2020 roku w Bordeaux we Francji miały się odbyć mistrzostwa RoboCup Humanoid League 2020. Jednak z powodu pandemii spotkanie miało charakter wirtualny (V-RoHOW) i dlatego nie zobaczyliśmy grających robotów. Na otarcie łez zostały nam tylko eliminacje do mistrzostw. Jednak, pomimo naprawdę wielkich postępów, pokazane na nich humanoidalne roboty ciągle poruszają się niezdarnie i nie budzą takich emocji, jak sportowcy w trakcie mistrzostwami świata
Czytaj też: Czy AI może być nieetyczna? I czy da się w ogóle sprawdzić, jaka jest?
Rozpoznawanie obiektów i obrazów nie oznacza zrozumienia
A co z rozpoznawaniem obiektów i obrazów? Dziś potrafimy już tworzyć świetne algorytmy, które to potrafią. I chociaż prawdą jest, że wiele systemów jest w stanie rozpoznać treść prawie każdego obrazu, to nie ma to nic wspólnego z inteligencją, ani zdolnościami poznawczymi.
Przyjrzyjmy się, jak działają tego typu algorytmy. Uczenie nadzorowane, które jest najbardziej popularną metodą uczenia systemów AI, polega na przekazaniu programowi obrazów oraz etykiet opisujących zawartość obrazu (np. kot). Dla każdej etykiety system otrzymuje bardzo dużą liczbą obrazów przedstawiających obiekt w różnych sytuacjach, pod różnymi kątami widzenia, w różnym otoczeniu i oświetleniu.
Aby system AI mógł rozpoznać kota, musi „zobaczyć” miliony obrazów przedstawiających te stworzenia
Sztuczna inteligencja tworzy wtedy wizualną reprezentację obiektu uśredniając parametry wszystkich obrazów. Jednak ta reprezentacja jest ostatecznie tylko prostym opisem, który nie odnosi się do rzeczywistego kocura.
Ludzie mogą rozpoznać kota po mruczeniu, dotyku futra na nodze, czy delikatnym zapachu kuwety (jeśli spóźnią się ze sprzątaniem). Wszystko to i setka innych skojarzeń oznaczają dla nas „Kota”. Jednak nic nie znaczą dla nawet najbardziej wyrafinowanej sztucznej inteligencji.
A przecież dziecku wystarczy pokazać raz kota, żeby rozpoznało futrzaka z tyłu, po ogonie, i rzuciło się na niego z lepkimi łapkami wywołując u biednego kocura niemały popłoch. A sztuczna inteligencja? Jeśli nawet dostanie miliony obrazów z kocią mordką, nie „zrozumie”, że to samo stworzenie właśnie znika w krzakach.
Aby to zrobić, algorytm potrzebowałby ciała, które pozwoliłoby mu doświadczać świata. Ale czy może pojąć, czym jest szklanka zimnej wody, jeśli nigdy nie był spragniony? Czy sztuczna inteligencja może zrozumieć pojęcie ognia, jeśli nigdy się nie sparzyła? Czy potrafi pojąć zimno, jeśli nigdy nie przenikał jej lodowaty wiatr? Albo wiosnę, jeśli nie czuła ciepłych promieni słońca na twarzy?
Kiedy algorytm „rozpoznaje” obiekt, nie rozumie jego natury. Rozpoznanie następuje wyłącznie przez porównanie z wprowadzonymi wcześniej danymi. I dlatego ciągle niezbędne jest nadzorowanie samochodów autonomicznych. Bo chociaż drogi są tylko jednym z elementów naszego świata, są bardzo złożone pod względem wizualnym i funkcjonalnym. A użytkowników, takich jak piesi i rowerzyści, można bardzo łatwo przeoczyć i pomylić jeden element ulicy z drugim.
Czytaj też: O samochodzie autonomicznym możesz na razie pomarzyć. Jest kilka barier rozwoju
Zmysłowe doświadczenie świata
A co z ludźmi? Jak napisałam wyżej, wystarczy jeden raz pokazać dziecku szczeniaka, a będzie w stanie rozpoznać każdego innego. Nawet jeśli jeszcze nie zna tego słowa. Rodzice, poprzez pokazywanie i nazywanie rzeczy, pomagają dziecku rozwijać język w oparciu o koncepcje, których doświadczyło wcześniej. Ten proces może wydawać się nam łatwy, a nawet oczywisty, a wcale taki nie jest.
Doskonałą ilustracją jest życie Helen Keller, która w wieku dwóch lat straciła słuch, wzrok i zdolność mowy. Jej wychowawczyni, Anne Sullivan, przez długi czas próbowała uczyć Helen słów rysując znaki na dłoni dziewczynki, a następnie dotykając odpowiedniego przedmiotu. Jednak wysiłki Anne kończyły się niepowodzeniem, ponieważ Helena nie miała punktów odniesienia do tego dziwnego sposobu komunikacji. Aż do pewnego dnia, w którym Ann zabrała Helen do studni, gdzie po jej dłoni spłynęła woda…
„Stałam nieruchomo, cała moja uwaga skupiona była na ruchach jej palców. Nagle poczułam mglistą świadomość czegoś zapomnianego – dreszcz powracającej myśli. I w jakiś sposób odkryłam tajemnicę języka. Wiedziałem wtedy, że woda oznacza to cudowne, chłodne coś, co płynie po mojej dłoni. To żywe słowo obudziło moją duszę, dało jej światło, nadzieję, uwolniło!… Wszystko miało nazwę, a każda nazwa była początkiem nowej myśli. Kiedy wróciliśmy do domu, każdy przedmiot, którego dotknąłem, zdawał się wibrować życiem.”
To słowa samej Helen Keller. Napisała je kilka lat później w swojej książce The Story of My Life (1905). Dla niej, tego konkretnego dnia, symbole na zawsze zakorzeniły się w rzeczywistości.
Czy wobec tego mamy szansę na stworzenie prawdziwie inteligentnej AI?
Chociaż dokonał się spektakularny postęp w dziedzinie uczenia maszynowego, przypisanie cyfrowych symboli do rzeczywistego świata pozostaje całkowicie nierozwiązanym problemem. A bez jego rozwiązania nie będzie prawdziwej Silnej Sztucznej Inteligencji (General Artificial Intelligence). I dlatego warto pamiętać, że chociaż nasi futrzani przyjaciele nie grają w szachy, to są niesłychanie mądrymi, inteligentnymi, społecznymi stworzeniami. Ale o tym wie większość z nas.
PS. Poza tym, tak między nami, czy jakakolwiek sztuczna inteligencja zareaguje, gdy jesteśmy smutni i będzie próbować nas pocieszać, albo przyniesie ulubioną zabawkę w nadziei, że to pomoże? Raczej nie.
Czytaj też: Sąd nad sztuczną inteligencją. Kto powinien odpowiadać, jeśli coś pójdzie nie tak?
Zdjęcie: Noupload na Pixabay
„Czy sztuczna inteligencja może zrozumieć pojęcie ognia, jeśli nigdy się nie sparzyła?” – w naszym projekcie SaraAI myślę że tak…
Ciekawa jestem szczegółów 🙂
Bardzo fajny początek, ale później trochę oderwany tekst od realiów. Rzeczywiście SI może nie rozumieć obrazu, ale kwestia sparzenia, wilgoci itp to tylko podłączenie odpowiednich sensorów, nawet zapach już jest rozpoznawalny 'cyfrowo’. To, że dziecko i ja kojarzę kota bo widziałem jednego, lub dwa, a machine learning wymaga wielu to ciągle udowadnia, że jesteśmy w pewnym sensie bardziej rozwinięci od komputera, ale mechanizm zostaje ten sam.
To nie jest tak, że ktokolwiek z nas nie docenia możliwości AI. Są naprawdę niesamowite, a ze względu na obszerność baz danych oraz prędkość obliczeniową często przebijają możliwości człowieka. Np. w rozpoznawaniu obrazów i ich drobiazgowej analizie AI jest znacznie górą.
Jednak my, ludzie, mamy skłonności do antropomorfizowania AI (jak zresztą wszystkiego) i przypisujemy jej cechy, których po prostu nie posiada. I właśnie dlatego powstał ten tekst. Człowiek, i każde inne stworzenie na Ziemi, jeszcze długo będzie dużo lepiej dostosowane do środowiska i bardziej wszechstronne, niż najlepsza AI wyposażona w bóg-wie-jaką sztuczną skórę upstrzoną czujnikami temperatury i nacisku (z reguły czujniki pojemnościowe). I może należałoby docenić, tak naprawdę, jak niesamowici jesteśmy, bo widać to chociażby w zderzeniu z AI.
PS. mam taką teoryjkę, że AI w połączeniu z człowiekiem byłaby naprawdę niesamowity duetem. Przez jakiś neuralink lub coś podobnego. Pracuje nad tym nie tylko Elon M. ale też IARPA (Intelligence Advanced Research Projects Activity, jednostka badawcza wywiadu USA), która, jak sama mówi, ma takie zasoby i dostęp do specjalistów, że Elon M. może pocałować się w łokieć.