Mark Zuckerberg, założyciel Mety, czyli firmy stojącej za Facebookiem, Instagramem i WhatsAppem, ogłosił na swoim portfelu na Instagramie, że firma intensywnie pracuje nad ogólną sztuczną inteligencją i „odpowiedzialnie” opublikuje ją jako open source, tak by „każdy mógł z tego skorzystać”.
Meta jest jedynym BigTechem, który opublikował swój duży model językowy (LLM) Llama 2. Co prawda Microsoft również opublikował kilka modeli, ale żaden z nich nie był choćby zbliżony wielkością do 70 miliardów parametrów oferowanych przez największą wersję Llamy 2.
Żeby przyspieszyć prace nad AGI, Meta planuje zacieśnić współpracę między jej dwoma zespołami badań nad sztuczną inteligencją, to znaczy FAIR (Fundamental AI Research) oraz GenAI, dodał Zucherberg.
Czym jest ogólna sztuczna inteligencja?
Różne autorytety podają różne definicje, ale można z grubsza powiedzieć za Andrew Ng, profesorem z Uniwersytetu Stanforda, że to taka sztuczna inteligencja, która jest w stanie wykonać dowolne zadanie intelektualne na poziomie człowieka lub lepszym.
Jeśli chcesz wiedzieć więcej o ogólnej sztucznej inteligencji, to przeczytaj nasze artykuły – autorstwa prof. Jakuba Growca – o tym, czy możliwa jest AGI przyjazna ludziom i czy tak naprawdę to ona nas nie zabije.
Podczas dopiero co zakończonego forum w Davos współzałożyciel OpenAI Sam Altman stwierdził, że ogólna sztuczna inteligencja jest „bliskawa” („close-ish”), ale że tak naprawdę nie tak dużo zmieni w naszych życiach czy zawodach.
„Kiedy osiągniemy AGI, świat oszaleje na dwa tygodnie, a następnie ludzie wrócą do robienia tego, co ludzkie” – powiedział Altman podczas panelowej dyskusji z prezesem Microsoftu. Szef Microsoftu Satya Nadella jest wielkim fanem prac nad AI firmowanych przez Altmana. Było to widać w trakcie zamieszania kadrowego w OpenAI w listopadzie 2023 r.
Z Altmanem zdają się nie zgadzać niektórzy luminarze sztucznej inteligencji i intelektualiści, w tym Geoffrey Hinton i Joshua Bengio, legendy uczenia głębokiego, którzy w liście otwartym ostrzegali pod koniec zeszłego roku przed konsekwencjami opracowania ogólnej sztucznej inteligencji.
Wracając do Mety, firma trenuje obecnie swój kolejny duży model językowy (LLM) nazwany Llama 3 (ale Zuckerberg nie podał tutaj żadnych dalszych szczegółów) i buduje olbrzymią infrastrukturę do dalszego rozwoju sztucznej inteligencji, planuje też osiągnąć 350 tysięcy kart H100 od Nvidii do końca tego roku (lub 600 tysięcy równoważników takich kart, jeśli uwzględnimy inne karty graficzne).
Źródło grafiki: Sztuczna inteligencja, model Dall-E 3