Humanoidy robiące salta, czworonożne maszyny sprawnie biegające po lesie już przestały dziwić. Podobnie maszyny chirurgiczne, które jako przedłużenie rąk lekarza pomagają w trudnych operacjach. Jednak prawdziwa rewolucja może być dopiero przed nami, a to za sprawą niespotykanej dotąd rosnącej samodzielności w uczeniu się robotów.
Chirurgiczny robot uczy się z wideo
Niedawno zespół z Johns Hopkins University doniósł o niezwykłym dokonaniu medycznego robota. Maszyna, na zwierzęcym modelu (świni) przeprowadziła samodzielnie operację usunięcia pęcherza moczowego. To skomplikowana procedura. Robot musiał zidentyfikować określone przewody i tętnice, precyzyjnie je uchwycić, strategicznie założyć klipsy oraz przeciąć odpowiednie fragmenty za pomocą nożyczek.
To jednak nie koniec nowości. Dzięki zastosowaniu modelu językowego podobnego do tego, który zasila np. Chat GPT, urządzenie reagowało na głosowe komendy specjalistów, a chirurgicznych metod nauczyło się praktycznie samo – z nagrań wideo pokazujących operacje przeprowadzane przez lekarzy i z opisów dodanych do tych materiałów.
– Dla mnie to naprawdę pokazuje, że możliwe jest przeprowadzanie złożonych zabiegów chirurgicznych w sposób autonomiczny – mówi prof. Axel Krieger, jeden z autorów eksperymentu. – To dowód koncepcyjny pokazujący, że jest to wykonalne i że ten model uczenia przez naśladownictwo może zautomatyzować tak skomplikowaną procedurę z bardzo dużą niezawodnością.
Czytaj też: Czy miękkie roboty podbiją świat? Do czego służą „soft robots”?
Filmy kształcą robota domowego – nowa szkoła robotów
Podobne metody działają także w innych okolicznościach, co pokazał zespół z Cornell University. Eksperci opracowali oparty na sztucznej inteligencji system, który umożliwia robotom nauczenie się wykonywania różnych zadań poprzez obejrzenie zaledwie – uwaga – jednego filmu instruktażowego.
– Jedną z irytujących kwestii w pracy z robotami jest konieczność gromadzenia ogromnych ilości danych odnośnie do robota wykonującego różne zadania. Ludzie nie uczą się w ten sposób. Patrzymy na innych i czerpiemy z tego inspirację – podkreśla Kushal Kedia, jeden z twórców systemu.
Jego zespół zainteresował się robotami, które mogłyby asystować ludziom w codziennych obowiązkach. Takie maszyny musiałyby radzić sobie ze skomplikowanym, zróżnicowanym środowiskiem i równie trudnymi zadaniami. To m.in. dlatego takich robotów nie widzi się na co dzień w domach. Dla człowieka zaparzenie herbaty to drobiazg, dla robota – sprawa najwyższej trudności. Osiągnięcie zespołu z Cornell University może więc oznaczać przełom.
– Nasza praca przypomina tłumaczenie z języka francuskiego na angielski – tłumaczymy dowolne zadanie z języka człowieka na język robota – wyjaśnia Sanjiban Choudhury, jeden z naukowców.
System, w dużym skrócie mówiąc, działa w ten sposób, że gdy np. robotowi pokazuje się film z człowiekiem sięgającym po kubek na blacie i odkładającym go do pobliskiego zlewu, maszyna przeszukuje swoją bazę nagrań i czerpie z niej inspirację, analizując także podobne działania – np. chwytanie kubka czy odkładanie sztućców.
– Podejście to stanowi odejście od sposobu, w jaki dziś programuje się roboty. Obecnie standardem jest poświęcanie tysięcy godzin na zdalne sterowanie, aby nauczyć robota wykonywania różnych zadań. To po prostu w praktyce niemożliwe do zastosowania. Dzięki naszemu systemowi odchodzimy od tego modelu i uczymy się trenować roboty w sposób znacznie bardziej skalowalny – podsumowuje prof. Choudhury.
Nie przegap najważniejszych trendów w technologiach!
Zarejestruj się, by otrzymywać nasz newsletter!
Trening przed lustrem
Zespół z Columbia Engineering pokazał natomiast jeszcze inną metodę – w tym przypadku robot potrafi się uczyć, obserwując własne ruchy. Taneczna szkoła robotów? Okazuje się, że w ten sposób może poznać własną strukturę i możliwości.
– Podobnie jak ludzie uczą się tańczyć, obserwując swoje odbicie w lustrze, roboty wykorzystują surowe nagrania wideo do budowania kinestetycznej samoświadomości – mówi główny autor badania Yuhang Hu. – Naszym celem jest stworzenie robota, który rozumie własne ciało, potrafi przystosować się do ewentualnych uszkodzeń i uczy się nowych umiejętności bez ciągłego programowania przez człowieka.
Naukowiec i jego zespół opracował metodę, która pozwala robotom samodzielnie modelować własne trójwymiarowe kształty za pomocą zwykłej kamery 2D. Było to możliwe dzięki trzem systemom sztucznej inteligencji naśladującym działanie mózgu znanym jako głębokie sieci neuronowe. Systemy te potrafią wyciągać wnioski o ruchu w trzech wymiarach na podstawie nagrań dwuwymiarowych, co umożliwiło robotowi zrozumienie i adaptację do własnych ruchów.
Nowe rozwiązanie pozwalało także wykrywać zmiany w budowie robota i pomagało mu odpowiednio dostosować ruchy, aby mógł poradzić sobie z takim symulowanym uszkodzeniem.
– My, ludzie nie możemy sobie pozwolić na ciągłe niańczenie różnych naszych robotów, naprawianie uszkodzonych części i korygowanie ich działania. Jeśli roboty mają stać się naprawdę użyteczne, muszą nauczyć się dbać o siebie same. Dlatego modelowanie samego siebie jest tak ważne – mówi kierujący pracami Hod Lipson.
Czytaj też: Roboty idą na łono przyrody – czy zostaną naszymi przyjaciółmi?
Szkoła robotów, czyli wystarczy wskazówka
Kiedy robot trafi do swojego nowego środowiska, np. do domu, będzie jednak musiał dostosować się do unikalnych warunków. Odpowiedź na tę sytuację zaprezentował zespół z MIT i NVIDIA. Naukowcy opracowali technologię, która ma pozwalać użytkownikom na korygowanie pracy robotów z pomocą tylko prostych wskazówek. Jak tłumaczą, mogłoby to być np. lekkie przesunięcie ramienia robota we właściwą stronę. Podkreślają, że w przeciwieństwie do innych metod korygowania zachowania maszyn technika ta nie wymaga zbierania nowych danych ani ponownego trenowania modelu uczenia maszynowego sterującego „mózgiem” robota. Umożliwia stosowanie przez człowieka intuicyjnych, przekazywanych w czasie rzeczywistym informacji zwrotnych. Takie podejście ma pozwolić na dostosowanie wstępnie wytrenowanych przez producenta robotów do środowiska jego pracy.
– Nie możemy oczekiwać od zwykłych użytkowników, że będą zbierać dane i dostrajać model sieci neuronowej. Konsument będzie oczekiwał, że robot będzie działał od razu po wyjęciu z pudełka, a jeśli tak się nie stanie, będzie chciał mieć intuicyjny mechanizm do jego dostosowania. Z tym właśnie wyzwaniem zmierzyliśmy się w naszej pracy – mówi Felix Yanwei Wang, współtwórca metody.
Czytaj też: Chirurgiczne roboty stają się coraz lepsze
Wirtualny trening robotów
Trening można też przenieść do świata cyfrowego i stworzyć tam prawdziwą szkołę robotów. Od pewnego czasu rozwijane są takie metody, ale nowy system o nazwie „LucidSim” może przenieść je na nowy poziom. Wykorzystuje on najnowsze osiągnięcia z dziedziny generatywnej sztucznej inteligencji oraz symulacji fizyki do tworzenia realistycznych wirtualnych środowisk treningowych. Jego autorzy zapewniają, że sam wirtualny trening pozwala maszynom osiągać poziom ekspercki w trudnych zadaniach ze świata rzeczywistego. Nowe osiągnięcia SI były kluczowe.
– Od dawna podstawowym wyzwaniem w uczeniu robotów była tzw. luka między symulacją a rzeczywistością, czyli różnica między środowiskami treningowymi w symulacjach a złożonym nieprzewidywalnym światem rzeczywistym – podkreśla Ge Yang z MIT, główny badacz projektu. Dotychczasowe podejścia często opierały się na czujnikach głębi, co upraszczało problem, ale pomijało kluczowe złożoności rzeczywistego świata.
Tymczasem, jak tłumaczą naukowcy, LucidSim wykorzystuje m.in. duże modele językowe do generowania opisów różnorodnych środowisk. Opisy te są następnie przekształcane w obrazy za pomocą generatywnych modeli SI. Aby zyskać pewność, że wirtualne światy odzwierciedlają rzeczywiste prawa, proces generowania jest wspomagany przez wbudowany symulator fizyczny. Zespół z pomocą wirtualnych symulacji nauczył np. czworonożnego, przypominającego psa robota swobodnego poruszania się w różnorodnym terenie i pokonywania rozmaitych przeszkód.
Robot uczy robota
Przy tych wszystkich osiągnięciach powstaje jednak pewna technologia, które może oznaczać eksplozję rozwoju umiejętności robotów. Pisze o niej np. Amanda Prorok z University of Cambridge na łamach magazynu „Science Robotics”. Przekonuje, że traktowanie robotów jako pojedynczych maszyn jest już niewystarczające. Twierdzi, że potrzebne jest traktowanie ich inteligencji jako kolektywnej – roboty mają zyskać możliwość współpracy, dzielenia się wiedzą i współdziałania jako system. Jak podkreśla, inteligentne istoty nie uczą się w izolacji.
– U ludzi fizyczne ograniczenia pojedynczych mózgów doprowadziły do ewolucji inteligencji zbiorowej, co przekonująco pokazują badania neurobiologiczne. Na przestrzeni pokoleń rozwijaliśmy zachowania prospołeczne takie jak empatia, altruizm czy skuteczna komunikacja – pisze w swoim artykule.
Dopiero taka wymiana i współpraca ma pozwolić maszynom na radzenie sobie w naturalnym środowisku z wymagającymi zadaniami. Na przykład naukowcy z Chinese University of Hong Kong zaprezentowali system do przenoszenia umiejętności między różnymi robotami humanoidalnymi. Stworzono w nim jeden wspólny cyfrowy model człowieka. Najpierw więc robot uczy się podstawowych ruchów, obserwując demonstracje ludzi. Potem ruchy te są dzielone na prostsze części, które można trenować osobno i łączyć w całość. Umiejętności są następnie dopasowywane do różnych konstrukcji robotów za pomocą kinematycznych przekształceń i drobnych poprawek.
Co to wszystko oznacza? Trudno przewidywać przyszłość, ale może ziszczą się wizje futurystów, w których roboty pracują nie tylko w fabrykach, ale pomagają w domach, szkołach, szpitalach, podają posiłki w restauracjach czy patrolują ulice.
Źródło zdjęcia głównego: Hyundai Motor Group