Partnerem strategicznym Homodigital.pl jest

Nvidia pokazała nowe produkty AI, ale… konkurencja rośnie

Nvidia pokazała nowe produkty AI. Takie, które ukażą się już za parę tygodni, ale i takie, których rynkowa premiera nadejdzie dopiero w kolejnych latach. Nvidii na pewno przyda się ucieczka do przodu. Konkurencja na rynku systemów dla AI rośnie a Amazon podobno zaczął oferować chipy wycenione na 1/4 tego, czego życzy sobie Nvidia.

Nvidia prezentuje nowe produkty kilka razy w ciągu roku. Na przykład wykorzystała targi CES do zaprezentowania swojego mini-superkomputera. Z kolei na specjalnej konferencji kilka tygodni później pokazała konsumenckie karty graficzne z serii RTX 5000. Jednak corocznie najważniejszym wydarzeniem firmy, zwłaszcza jeśli chodzi o sprzęt do obliczeń AI, jest konferencja GTC. W tym roku nie było inaczej – to na GTC usłyszeliśmy zapowiedzi najważniejszych produktów firmy dla rynku AI.

Nvidia pokazała produkty AI dla centrów danych…

Główną zapowiedzią szefa Nvidii Jensena Huanga było ogłoszenie, że w drugiej połowie zeszłego roku pojawią się nowe, wydajniejsze karty GPU dla obliczeń AI w centrach danych. Nvidia tradycyjnie nazywa takie układy imionami i nazwiskami wybitnych naukowców w dziedzinie nauk ścisłych. Nie inaczej jest tym razem – nowa architektura będzie się nazywać Vera Rubin, ku czci wybitnej amerykańskiej astronomki.

Przy porównywalne konfiguracji nowy układ powinien dostarczyć 3,3x większą moc obliczeniową w stosunku do właśnie wprowadzanego (patrz poniżej) systemu Blackwell Ultra. Jeszcze mocniejsza wersja o nazwie kodowej Rubin Ultra powinna się pojawić rok później, w drugiej połowie 2027 roku. Ta wersja ma mieć 1 TB pamięci operacyjnej – około pięciokrotnie więcej niż obecne karty firmy.

W jeszcze dalszej przyszłości, bo w 2028 roku, Nvidia planuje wprowadzić układ Feynman. Ale o nim nie dowiedzieliśmy się praktycznie żadnych szczegółów.

W zdecydowanie bliższej przyszłości, bo już w drugiej połowie bieżącego roku zadebiutuje wspomniany Blackwell Ultra B300. To najnowsza wersja chipu w architekturze Blackwell z mocą obliczeniową 15 petaflopów i 288 GB pamięci. W obu przypadkach to 1,5x więcej niż dotąd najmocniejsze B200.

… jak również dla entuzjastów AI

Nvidia nie zapomina również o innych potencjalnych konsumentach dla jej sprzętu AI. Czyli o firmach, naukowcach, studentach czy entuzjastach, którzy chcieliby tworzyć lub modyfikować modele AI a niekoniecznie chcą to robić na infrastrukturze chmurowej.

Tym odbiorcom firma zaoferuje „biurkowe” wersje swojej technologii. Już na CES w styczniu Nvidia zaprezentowała mini-superkomputer Digits. To komputerek wielkości Maca Mini. Miał on oferować zintegrowany procesor, tak zwany SoC, z mocą obliczeniową 1000 TOPS i 128 GB pamięci na pokładzie dostępnej zarówno dla systemu jak i dla operacji GPU. Te 1000 TOPS to wprawdzie nieco mniej niż topowe karty graficzne Nvidii do gier, takie jak TRX 4090 i RTX 5090. Ale jednak 20x więcej niż oferują „procesory AI w rodzaju Ryzenów AI Max od AMD.

Teraz dowiedzieliśmy się, że Digits będzie się docelowo nazywać DGX Spark. Pod taką nazwą wejdzie do sprzedaży w drugiej połowie roku i jest już teraz dostępny do rezerwacji. Cena, jak sugerowano już podczas CES, to 3000 dolarów.

Dowiedzieliśmy się również, że DGX Spark będzie miał większego brata. DGX Station w kategorii komputerów biurkowych będzie prawdziwym monstrum. Będzie miał moc obliczeniową 20 petaflopów, a więc jakieś 20x więcej niż Spark i 784 GB pamięci.

DGX Station ma być dostępny od partnerów Nvidii, takich jak ASUS, BOXX, Dell, HP, Lambda i Supermicro jeszcze w tym roku.

Ponadto Nvidia zaprezentowała nowe karty dla obliczeń AI z serii RTX PRO, oferujące nawet 4000 AI TOPS i do 96 GB pamięci. Karty będą dostępne w wersjach na serwery – głównie do centrów danych – oraz na stacje robocze.

Nvidia pokazała produkty AI dla robotów

Jednak Nvidia to nie tylko producent sprzętu dla AI, ale również deweloper modeli AI. Na GTC nie zabrakło więc prezentacji modeli AI – tym razem dla robotów.

Firma ogłosiła udostępnienie modelu Issac Groot N1, otwartego modelu AI dla humanoidalnych robotów. OIprócz tego, we współpracy z Google Deep Mind i Disney Research zobaczyliśmy Newtona, również otwarty model świata fizycznego dla symulacji w robotyce.

Jak tłumaczył prezes Huang, na świecie pod koniec obecnej dekady będzie brakować 50 mln pracowników. I tylko roboty będą mogły ich zastąpić. Oczywiście dla firmy najlepiej by było, gdyby roboty te były napędzane przez chipy i modele Nvidii.

Nvidia musi uciekać do przodu, bo konkurencja rośnie

Nvidia niewątpliwie potrzebuje nowych pomysłów na siebie i nowych przewag technologicznych nad konkurencją. Jej pozycja na rynku GPU dla AI, wysoka sprzedaż i niebotyczne marże są przedmiotem zazdrości u konkurentów, czyli AMD, Intela czy Qualcomm. Wywołują też frustrację płacących niebotyczne ceny klientów, takich jak największe firmy chmurowe czy budująca własne centra danych Meta.

Inne firmy nie chcą się poddać bez walki. AMD weszło na rynek GPU dla AI z pewnym opóźnieniem, ale obecnie coraz bardziej podgryza Nvidię. Wspomniany powyżej Blackwell Ultra to ewidentnie odpowiedź na najnowszy produkt AMD. Ma on wejść na rynek w połowie roku, a osiągami podobno przebija obecnie najlepsze układy Nvidii B200.

Konkurencji ze strony Intela Nvidia chwilowo nie musi się bać. GPU Intela dla AI okazało się fiaskiem i firma z niego zrezygnowała. Ale już zamiary klientów firmy: Amazona, Microsoftu, Google i Mety mają prawo niepokoić prezesa Huanga. Każdy z tych gigantów technologicznych ma projekty rozwoju własnych chipów AI. A sukces na tym polu pozwoliłyby im sporo zaoszczędzić na produktach Nvidii.

Nie ma w tym nic dziwnego i mamy precedensy w historii. Swego czasu Amazon był jednym z największych klientów Oracle, największego na świecie dostawcy systemów baz danych. W końcu jednak założyciel Amazona Jeff Bezos doszedł do wniosku, że za dużo pieniędzy wycieka z jego kieszeni prosto do kieszeni głównego akcjonariusza i prezesa Oracle, Larry’ego Ellisona. Więc zażądał od swoich inżynierów, by z na bazie darmowego Postgresa stworzyli zastępstwo dla systemów Oracle. Tak powstał Redshift. Niewątpliwie podobną ścieżką chętnie podążyliby najwięksi klienci Nvidii.

Jak dotąd, mimo że swoje chipy AI miał Google i Amazon, to były one, i to w umiarkowanej skali, używane głównie na własny użytek. To się jednak zmienia. Jak donosi serwis The Information, AWS obciął ceny swoich chipów Trainium do około 25% ceny jaką pobiera za swoje chipy H100 Nvidia. A oba chipy oferują podobne osiągi.

Co jest groźne dla Nvidii?

Jest to dla Nvidii o tyle groźne, że najnowsze chipy Nvidii oparte na architekturze Blackwell, choć sprzedają się dobrze i choć ich produkcja pomimo początkowych problemów rozwija się nieźle, to stanowią niecałe 1/3 sprzedaży chipów AI Nvidii. Pozostałe przeszło 2/3 to starsze układy, głównie właśnie H100. I choć Nvidia oczywiście może sobie pozwolić na obniżkę ceny, bo sprzedaje te układy na niebotycznych marżach, to taki ruch zapewne silnie wpłynąłby na wycenę firmy.

Moment na obniżkę cen Amazona zapewne nie jest przypadkowy. Wprowadzenie modelu DeepSeek pokazało, że do zbudowania silnych modeli AI nie są konieczne najnowsze chipy od Nvidii, więc popyt na te starsze zapewne wzrósł. Ale nie potrwa to zbyt długo. W związku z rozwojem modeli rozumujących zużycie mocy obliczeniowych przesuwa się z trenowania modeli na wnioskowanie (inference), czyli używanie już wytrenowanego modelu. A tu Blackwell Nvidii ma sporą przewagę. Więc Amazon chce wykorzystać ten krótki moment, gdy da się uszczknąć kawałek tortu od Nvidii.

Źródło zdjęcia: Nvidia

Home Strona główna Subiektywnie o finansach
Skip to content email-icon