„Superinteligencja jest w zasięgu ręki” – ogłosili Sutskever oraz dwóch innych współzałożycieli firmy, Daniel Gross i Daniel Levy. Wychodząc z tego założenia, postanowili skupić się na jej zbudowaniu bez rozpraszania się na poboczne projekty. To w jakimś sensie stało się z poprzednią firmą Sutskevera, OpenAI, która pod presją kosztów budowy kolejnych modeli AI najpierw związała się z Microsoftem a następnie zaczęła wypuszczać produkty, które niekoniecznie były szczeblami na drodze do superinteligencji, ale za to pozwalały firmie zarobić.
Pomny tych doświadczeń, Sutskever chce się skupić na jednym celu – budowie bezpiecznej sztucznej inteligencji. I to takiej, w której bezpieczeństwo jest inherentną cechą modelu, a nie dodatkiem do modelu, jakim są dodawane do dużych modeli językowych tzw. guardrails. Czyli – zewnętrzne ograniczenia narzucane na system, tak by zachowywał się on w sposób pożądany. Jak powiedział Sutskever w wywiadzie dla Bloomberga, gdy mówi 'bezpieczny’, to ma na myśli bezpieczeństwo w stylu bezpieczeństwa nuklearnego.
O tym, że nie wszyscy są równie jak Sutskever skoncentrowani na zapewnieniu bezpieczeństwa sztucznej inteligencji pisałem niedawno w tym artykule.
Bezpieczna superinteligencja – za co i kiedy?
Pomysł Sutskevera oczywiście rodzi istotne pytania. Po pierwsze, jak SSI chce uniknąć pułapki, w którą wpadło OpenAI, czyli jak zamierza sfinansować budowanie nowego modelu? Przypomnijmy, w przypadku OpenAI były to miliardy dolarów.
Na pytanie o finansowanie Sutskever nie chciał odpowiedzieć, a jego partner Daniel Gross, który sam inwestuje w startupy zajmujące się sztuczną inteligencją, odpowiedział tylko: „Z wszystkich problemów, jakie przed nami stoją, pozyskanie kapitału nie będzie jednym z nich.” Ale nie wiemy, na jak długo inwestorom starczy cierpliwości, jeśli firmie osiągnięcie bezpiecznej superinteligencji zajmie lata.
Drugie pytanie to, czy Sutskever nie włącza się do wyścigu o osiągnięcie superinteligencji trochę za późno. Prace nad tym zagadnieniem trwają już w innych firmach z większymi zasobami finansowymi i ludzkimi. Sutskever i jego były współpracownik z OpenAI Levy wnoszą spore doświadczenie w budowaniu modeli sztucznej inteligencji, ale przecież nie wnoszą technologii. Ta pozostała własnością OpenAI. Więc, w jakimś sensie, SSI będzie musiała gonić peleton.
No i wreszcie trzecie pytanie: czy starając się wbudować bezpieczeństwo w sztuczną inteligencję Sutskever nie ryzykuje, że ktoś inny, mniej skoncentrowany na bezpieczeństwie AI, wyprzedzi go w wyścigu do superinteligencji.
Osobiście życzę Ilyi powodzenia. Jeśli uda się nam- ludzkości – stworzyć superinteligencję – a wcale nie jest pewne, że nastąpi to szybko, to oczywiście lepiej by było, żeby była ona bezpieczna. Więc – trzymajmy kciuki za SSI.
Źródło zdjęcia: Amanda Dalbjörn/Unsplash