Partnerem strategicznym Homodigital.pl jest
20 września 2021

O jedno spojrzenie za daleko, czyli po co robotom oczy?

Nadawanie robotom ludzkich imion, twarzy czy kreowanie sylwetki podobnej do człowieka znane jest nie tylko z kultury masowej, filmów, książek czy komiksów. Taką wizję narzucają też najbardziej zaawansowane laboratoria i fabryki robotów na świecie. Przyświecają temu cele tak humanistyczne jak i bardziej przyziemne.

Nadawanie robotom ludzkich imion, twarzy czy kreowanie sylwetki podobnej do człowieka znane jest nie tylko z kultury masowej, filmów, książek czy komiksów. Taką wizję narzucają też najbardziej zaawansowane laboratoria i fabryki robotów na świecie. Przyświecają temu cele tak humanistyczne jak i bardziej przyziemne.

Robot zajrzy w duszę człowieka?

Czy spojrzenie robota może skłonić człowieka do zmiany decyzji? Okazuje się, że tak. Niestety lub na szczęście. Pytanie co to oznacza dla ludzkości i dla dalszych badań i rozwoju robotyzacji na świecie. Czy to koniec humanoidalnych robotów, jakie znamy? A może właśnie kluczowym aspektem działania robotów będzie ich wzrok. Oraz wpływ tego spojrzenia na człowieka. Czy ktoś ośmieli się ukraść coś ze sklepu, kiedy będzie się mu przypatrywał robot? Czy zapalimy papierosa w miejscu do tego niedozwolonym, kiedy będzie nas upominał uprzejmy i śmiejący się do nas robot? A może w trudnych i stresujących sytuacjach to robot będzie potrafił nas wesprzeć, utwierdzić w decyzji, rozładować negatywne emocje?

Zobacz również:
Czy klienci banków chcą cyfrowej transformacji banków?
Hatalska: nie można kontrolować technologii
Nieśmiertelność z Doliny Krzemowej

Już dziś w wielu sklepach w Azji są roboty upominające o zagrożeniach, przypominające o odpowiednim zachowaniu. Bacznie wyszukujące osób niebezpiecznych lub potencjalnych przestępców. Kamera już dano przestała być elementem wstrzymującym niewłaściwe zachowanie człowieka. Czy robot będzie mógł więcej? O ciekawym badaniu poinformował niedawno m.in. serwis Reuters.

Nie (i)graj z robotem

Zespół z Istituto Italiano Di Tecnologia (IIT) w Genui pod kierownictwem prof. Agnieszki Wykowskiej pokazał, jak spojrzenie robota może skłonić nas do myślenia, że ​​wchodzimy w interakcje społeczne i spowolnić naszą zdolność do podejmowania decyzji. Grupa 40 ochotników grała w klasyczną grę wideo, mając naprzeciwko za przeciwników roboty humanoidalne typu iCub Zabawa polegała na klasycznej „grze w cykora”. Dwa auta, jadące naprzeciwko siebie, jednym kieruje człowiek a drugim robot. Przed kolizją gracz spoglądał na robota, ten czasem wnikliwe się wpatrywał w człowieka, innym razem odwracał wzrok.

Okazało się, że badania przeprowadzone za pomocą elektroencefalografu wskazały, iż spojrzenia robota miały wpływ na to, jaką decyzję podejmie gracz.

– Nasze wyniki pokazują, że w rzeczywistości ludzki mózg przetwarza spojrzenie robota jako sygnał społeczny, a ten sygnał ma wpływ na sposób, w jaki podejmujemy decyzje, na strategie, które wdrażamy w grze, a także na nasze reakcje – stwierdziła prof. Wykowska. – Wzajemne spojrzenie robota wpłynęło na decyzje, opóźniając je, więc ludzie znacznie wolniej podejmowali decyzje w grze – dodała. Więcej na temat założeń, przeprowadzenia i efektów badania można przeczytać w tym miejscu.

Dolina niesamowitości, czyli spojrzenie robota budzące odrazę

Zdaniem ekspertki spojrzenie to niezwykle ważny sygnał społeczny, który wykorzystujemy na co dzień w kontaktach z innymi. Teraz czas na przeprowadzenie dodatkowych badań i analiz. Warto zauważyć, że wymiana spojrzeń z robotem już od dawna jest postrzegana jako rzecz bardzo intrygująca. Co więcej, nawiązanie kontaktu wzrokowego z robotem może być niepokojącym doświadczeniem. Chodzi o tzw. dolinę niesamowitości – termin stosowany w hipotezie naukowej, zgodnie z którą robot, rysunek lub animacja komputerowa wyglądający bądź funkcjonujący podobnie (lecz nie identycznie) jak człowiek, wywołuje u obserwatorów nieprzyjemne odczucia, a nawet odrazę.

Termin pochodzi z lat 70. XX wieku. Wtedy to japoński inżynier i konstruktor robotów Masahiro Mori przeprowadził badania dotyczące emocjonalnej reakcji ludzi na wygląd zewnętrzny robotów. Oczywiście zaczęło się od bardzo pozytywnych reakcji na uśmiechnięte, pyzowate twarze wielkimi oczami. Okazało się jednak, że roboty, które do złudzenia przypominają człowieka, na tyle, że przy odrobinie pecha, można by je nawet z nim pomylić, powodowały zgoła odmienne reakcje. Poczucie dyskomfortu czy strachu zwiększało się, kiedy robot nie tylko wyglądał, ale i widział, mówił oraz poruszał się jak człowiek.  

Badania potwierdzają dyskomfort

Co ciekawe ponad 40 lat po badaniach Moriego znaleziono odpowiedź na te przedziwne odczucia, związane z wymianą spojrzenia z robotem. W 2011 roku prof. Ayse Pinar Saygin z Uniwersytetu Kalifornijskiego podjęła badania mające na celu ustalenie przyczyn występowania doliny niesamowitości. Badanie aktywności okolic kory ciemieniowej wskazało, że widok robota humanoidalnego powoduje u obserwatora oczekiwanie wykonania konkretnych ruchów. Identycznych jak ruchy człowieka. W przypadku ich braku następuje wskazany dyskomfort.

Na świecie działa już prawdopodobnie ponad 3 miliony robotów pracujących między innymi w przemyśle. Według International Federation of Robotics ich liczba w 2020 roku wynosiła już 2,7 mln, a roczny przyrost wprowadzanych do obiegu maszyn to ok. 12 procent rocznie. Najwięcej urządzeń tego typu mają Chiny, na drugim miejscu jest Japonia. Jak pewnie się domyślacie, większość tych robotów nie ma żadnych imion – poza być może tymi nadawanymi np. przez pracowników fabryk — nie mówiąc już o twarzach.

Czy robot musi mieć ludzką twarz?

Oczywiście wystarczyłoby napisać, że na świecie buduje się zarówno roboty humanoidalne jak i zwykłe programy, czy potężne maszyny przemysłowe również robotami nazywane. Inne, jak te z Boston Robotics mają kształt przypominający psa lub czteronożne zwierzę, z kolei producenci japońscy próbują jak najbardziej upodobnić je do człowieka. Dbając nie tylko o szczegóły takie jak twarz, oczy czy dłonie, ale odpowiednie w wyglądzie i dotyku materiały, przypominające ludzką skórę.  

Pozostaje jednak pytanie dlaczego robot humanoidalny, który ma wydawać nam burgery, tankować paliwo, robić sushi czy też opiekować się starszymi osobami nadawane ma dodatkowo cechy ludzkie. Mógłby przecież nie mieć twarzy, oczu czy rąk, a zamiast tego wyglądać jak połączenie komputera, kamery i robota kuchennego.  

Robot jaki jest, każdy widzi

Pierwsza myśl, jaka przychodzi do głowy to chęć  upodobnienia robota do człowieka, aby zlikwidować pewną barierę poznawczą. Skoro robot wygląda jak człowiek, to możemy nabrać do niego zaufania, że zaplanowane zadania zostaną wykonane. Nie jest to już tylko bezmyślna maszyna, ale coś więcej. Urządzenie na kształt człowieka, a więc zarówno wymagania przed nim stawiane jak i możliwości powinny być większe. Przynajmniej w teorii.

Dodatkowo ta humanoidalność zbliża człowieka do maszyny podczas interakcji z robotem. W przypadku urządzeń, które miałyby np. pomagać osobom starszym, taka forma ma też aspekt społeczny. W Japonii, gdzie bardzo mocno rozwija się rynek robotów o ludzkich cechach i wyglądzie  mamy ogromny deficyt rąk do pracy. Ponadto wielu osobom doskwiera samotność. Humanoidalny robot ma zastąpić człowieka, niejako wypełnić lukę w tym, czego najbardziej wielu osobom może brakować.

Robot na miarę naszych oczekiwań to robot z ludzką twarzą

To są oczywiście domysły, ewentualnie komentarze producentów robotów. Faktem jest natomiast, że wygląd robota świadczy przede wszystkim  o jego możliwościach. Kiedy widzimy urządzenie z twarzą człowieka, możemy mieć pewność, że jest to urządzenia, z którym wejdziemy w interakcję. Będziemy mogli o coś zapytać, ewentualnie to robot o czymś nam powie. Jeśli dodatkowo twarz jest ruchoma, być może będzie nam mógł przekazać pewne emocje. Nawet jeśli będzie to sztucznie wykreowana emocja przez programistę.

Skoro widzimy, że robot ma oczy, możemy wnioskować, że nie tylko nas widzi, ale i analizuje obraz jak i go nagrywa. Widząc ręce robota przypominające dłonie człowieka, możemy śmiało ocenić, że robot nie tylko bezmyślnie będzie nimi machał, ale np. potrafi wcisnąć przycisk, chwycić dłoń czy przedmiot lub zagrać na pianinie. No dobrze, ale czy mógłby to wszystko zrobić, będąc bezkształtną plątaniną kabli, kamer, procesorów i chwytaków. Zapewne tak, ale czy właśnie nie tej ludzkiej formy robotyzacji oczekujemy?

Home Strona główna Subiektywnie o finansach
Skip to content email-icon