20 czerwca 2024

Ilya Sutskever zakłada nową firmę, obiecuje bezpieczną superinteligencję

Ilya Sutskever, współzałożyciel OpenAI, który opuścił ją w maju, postanowił założyć nową firmę o wiele mówiącej nazwie Safe Superintelligence (SSI) – Bezpieczna Superinteligencja. Ale wygląda na to, że nie tak szybko usłyszymy o jej nowych produktach. Sutskever obiecuje, że nie będzie się rozpraszać i jego firma skupi się wyłącznie na podstawowym celu. Tym celem ma być zbudowaniu bezpiecznej superinteligencji, a więc inteligencji sprawniejszej od ludzkiej.

„Superinteligencja jest w zasięgu ręki” – ogłosili Sutskever oraz dwóch innych współzałożycieli firmy, Daniel Gross i Daniel Levy. Wychodząc z tego założenia, postanowili skupić się na jej zbudowaniu bez rozpraszania się na poboczne projekty. To w jakimś sensie stało się z poprzednią firmą Sutskevera, OpenAI, która pod presją kosztów budowy kolejnych modeli AI najpierw związała się z Microsoftem a następnie zaczęła wypuszczać produkty, które niekoniecznie były szczeblami na drodze do superinteligencji, ale za to pozwalały firmie zarobić.

Pomny tych doświadczeń, Sutskever chce się skupić na jednym celu – budowie bezpiecznej sztucznej inteligencji. I to takiej, w której bezpieczeństwo jest inherentną cechą modelu, a nie dodatkiem do modelu, jakim są dodawane do dużych modeli językowych tzw. guardrails. Czyli – zewnętrzne ograniczenia narzucane na system, tak by zachowywał się on w sposób pożądany. Jak powiedział Sutskever w wywiadzie dla Bloomberga, gdy mówi 'bezpieczny’, to ma na myśli bezpieczeństwo w stylu bezpieczeństwa nuklearnego.

O tym, że nie wszyscy są równie jak Sutskever skoncentrowani na zapewnieniu bezpieczeństwa sztucznej inteligencji pisałem niedawno w tym artykule.

Bezpieczna superinteligencja – za co i kiedy?

Pomysł Sutskevera oczywiście rodzi istotne pytania. Po pierwsze, jak SSI chce uniknąć pułapki, w którą wpadło OpenAI, czyli jak zamierza sfinansować budowanie nowego modelu? Przypomnijmy, w przypadku OpenAI były to miliardy dolarów.

Na pytanie o finansowanie Sutskever nie chciał odpowiedzieć, a jego partner Daniel Gross, który sam inwestuje w startupy zajmujące się sztuczną inteligencją, odpowiedział tylko: „Z wszystkich problemów, jakie przed nami stoją, pozyskanie kapitału nie będzie jednym z nich.” Ale nie wiemy, na jak długo inwestorom starczy cierpliwości, jeśli firmie osiągnięcie bezpiecznej superinteligencji zajmie lata.

Drugie pytanie to, czy Sutskever nie włącza się do wyścigu o osiągnięcie superinteligencji trochę za późno. Prace nad tym zagadnieniem trwają już w innych firmach z większymi zasobami finansowymi i ludzkimi. Sutskever i jego były współpracownik z OpenAI Levy wnoszą spore doświadczenie w budowaniu modeli sztucznej inteligencji, ale przecież nie wnoszą technologii. Ta pozostała własnością OpenAI. Więc, w jakimś sensie, SSI będzie musiała gonić peleton.

No i wreszcie trzecie pytanie: czy starając się wbudować bezpieczeństwo w sztuczną inteligencję Sutskever nie ryzykuje, że ktoś inny, mniej skoncentrowany na bezpieczeństwie AI, wyprzedzi go w wyścigu do superinteligencji.

Osobiście życzę Ilyi powodzenia. Jeśli uda się nam- ludzkości –  stworzyć superinteligencję – a wcale nie jest pewne, że nastąpi to szybko, to oczywiście lepiej by było, żeby była ona bezpieczna. Więc – trzymajmy kciuki za SSI.

Źródło zdjęcia: Amanda Dalbjörn/Unsplash

Home Strona główna Subiektywnie o finansach
Skip to content email-icon