Sztuczna inteligencja rozpala wyobraźnię naukowców, przedsiębiorców i wynalazców. Kolejne odsłony i zastosowania tej technologii zaskakują, ułatwiają zadania, ale też wywołują obawy o bezpieczeństwo miejsc pracy, a nawet samej ludzkości. Czy AI nas zabije? A może się z nami zaprzyjaźni? To raczej pytania dla futurystów.
Do powstania sztucznej inteligencji, a właściwie do jej wytrenowania, potrzeba ogromnych ilości mocy obliczeniowej i pamięci. Uczenie maszynowe wymaga wielkich zbiorów danych i potężnych procesorów, by te dane przetrawić i na nich nauczyć się wykonywać te czy inne zadania.
To oznacza, że każdy, kto chce rozwijać sztuczną inteligencję, potrzebuje nie tylko błyskotliwych inżynierów, ale i solidnej infrastruktury. Jak ją sobie zapewnić?
Bujanie w obłokach, czyli AI w chmurze
W dzisiejszych czasach naturalną odpowiedzią na zapotrzebowanie na przestrzeń do przechowywania danych lub na moc obliczeniową jest chmura. Choć popularne internetowe powiedzonko mówi, że „chmura to tylko czyjś komputer” („The cloud is just someone else’s computer”), to nie jest to do końca prawda.
Chmura jest oczywiście ulokowana na ziemi. A czasem… pod jej powierzchnią. Nazwanie wielkich serwerowni „czyimś komputerem” jest oczywiście wielkim uproszczeniem. Bo tym kimś są zazwyczaj firmy, które zarządzają tą infrastrukturą w sposób, który ma zapewnić szybki i nieprzerwany dostęp do zasobów podmiotom, które miejsce w chmurze wynajmują. Oraz pilnują bezpieczeństwa danych.
Korzystanie z takich usług kosztuje, ale alternatywą jest budowanie i zarządzanie całą taką infrastrukturą we własnym zakresie przez zespoły rozwijające sztuczną inteligencję. A to kosztowałoby jeszcze więcej.
Dlatego też, jak ocenia Lech Szczuka, prezes Asseco Cloud, chmura jest naturalnym środowiskiem rozwoju sztucznej inteligencji, gdyż „pozwala łatwo tworzyć aplikacje wykorzystujące AI oraz zarządzać nimi na późniejszym etapie”.
Zdaniem eksperta Asseco rozwój sztucznej inteligencji jeszcze bardziej napędzi i tak ogromne zapotrzebowanie na usługi chmurowe i na moc obliczeniową w najbliższych latach.
Jak wielkie są to zasoby, pokazuje niedawny post założyciela Mety Marka Zuckerberga – sama Meta buduje olbrzymią infrastrukturę do dalszego rozwoju sztucznej inteligencji i planuje osiągnąć 350 tysięcy kart H100 od Nvidii do końca tego roku (lub 600 tysięcy równoważników takich kart, jeśli uwzględnimy inne karty graficzne).
To jednak nie oznacza, że każdy model sztucznej inteligencji „wisi” w chmurze, a dostęp do niego jest możliwy tylko za pomocą sieci. Programiści, którzy wspierają się AI przy kodowaniu, mają alternatywę.
Nowy LLM do programowania
Stability AI to firma specjalizująca się w generatywnej sztucznej inteligencji (GenAI), znana zwłaszcza z modelu Stable Diffusion służącego do generowania grafiki przy pomocy zapytań tekstowych (tzw. text-to-image).
Opublikowany właśnie model Stable Code 3B ma wspomagać pracę programistów. Charakteryzuje się raczej niewielkim jak na LLM-y (ang. Large Language Models, czyli duże modele językowe) rozmiarem 3 miliardów parametrów. Model stosuje kodowanie BF16, co oznacza, że każdy parametr zabiera 2 bajty, a więc cały model zajmie około 6 GB w pamięci komputera – z całą pewnością za dużo dla laptopa z 8 GB pamięci, ale w taki z 16 GB RAM powinien zmieścić się raczej komfortowo.
Możecie zapytać, jak to jest, że firmy muszą budować wielkie centra danych, by stworzyć LLM-y, a my możemy z nich korzystać (no, z tych mniejszych) nawet na laptopie. Otóż budowanie modelu wymaga o wiele większej mocy obliczeniowej niż korzystanie z niego.
Przyjmuje się, że wytrenowanie modelu z 1 miliardem parametrów (a więc 3 razy mniejszego od Stable Code) wymaga klastra z co najmniej 3 kartami graficznymi NVidii z 80 GB każda (lub więcej, jeśli chcemy przyspieszyć proces), a korzystać z niego zapewne moglibyśmy na laptopie z 8 GB RAM i bez karty graficznej.
Jakie są zalety nowego modelu? Po pierwsze, po zainstalowaniu na komputerze można go używać nawet w miejscach bez dostępu do internetu. Jeśli chcecie sobie pokodować w ciszy i spokoju środka Puszczy Knyszyńskiej, bez rezygnacji z pomocy generatywnej inteligencji, to teraz możecie. Github Copilot, najczęściej obecnie używany LLM do programowania, nie daje nam takiej opcji.
Po drugie, korzystanie z modelu dla celów niekomercyjnych jest zupełnie darmowe. Jeśli więc dopiero uczysz się programować, Stable Code może być dla Ciebie. Github Copilot dostępny jest za darmo tylko dla studentów, nauczycieli i twórców „popularnych” repozytoriów kodu na Githubie.
Profesjonalne kodowanie z AI
A jeśli chcesz wykorzystać Stable Code do celów komercyjnych? Stability AI umożliwia to za 20 dolarów miesięcznie. W zamian dostajesz komercyjny dostęp nie tylko do modelu wspomagającego kodowanie, ale również do Stable Diffusion oraz innych modeli firmy generujących tekst, dźwięk, a nawet wideo. Za Github Copilota zapłacisz 10 dolarów za miesiąc, ale dostaniesz tylko Copilota.
O możliwościach modeli generujących wideo pisaliśmy w tekście o VideoPoet od Google.
W jakich językach możemy kodować z pomocą Stable Code? Model został wytrenowany na 18 najpopularniejszych językach programowania (wybranych na podstawie sondażu StackOverflow), w tym Pythonie, HTML, CSS, JavaScript, Java, SQL C czy C++. Według zapewnień firmy jej model jest, średnio rzecz ujmując, równie dobry jak przeszło dwukrotnie większy model Mety Code Llama 7B i istotnie lepszy od modeli porównywalnej wielkości.
Jaka jest podstawowa zaleta Github Copilota w stosunku do Stable Code? Zapewne integracja z edytorami takimi jak VSCode czy programami IDE takimi jak Visual Studio czy tymi oferowanymi przez Jetbrains (np. Pycharm czy IntelliJ IDEA).
Źródło zdjęcia: Arnold Francisca/Unsplash