Instytuty wzorowane na brytyjskim AI Safety Institute, powiązane w sieć, zajmą się postępami w nauce nad bezpieczeństwem modeli AI. Deklarację podpisały Australia, Francja, Japonia, Kanada, Korea Południowa, Niemcy, Singapur, Stany Zjednoczone, Wielka Brytania, Włochy oraz UE.
„AI to ogromnie ekscytująca technologia (…) Ale aby wykorzystać jej potencjał, musimy zadbać o bezpieczeństwo. Dlatego z radością informuję, że dziś osiągnęliśmy porozumienie w sprawie sieci Instytutów Bezpieczeństwa AI”. Tak napisał w oświadczeniu premier Wielkiej Brytanii Rishi Sunak, który współprzewodniczył szczytowi.
O tym, że niekontrolowany rozwój AI może źle się skończyć dla ludzkości – nawet zagładą – pisał na naszych łamach prof. Jakub Growiec.
Seul to nie tylko deklaracje polityków o bezpieczeństwie AI
Szczyt przyniósł nie tylko deklaracje ze strony polityków. Politycy dostali wsparcie również od największych firm z branży. 16 gigantów AI. Są to m.in.: Amazon, Anthropic, Cohere, Google, IBM, Inflection AI, Meta, Microsoft, Mistral AI, Open AI, Samsung Electronics, xAi Elona Muska. Obecna była także spółka Zhipu.ai, firma AI wspierana przez chińskich gigantów Alibabę, Anta i Tencent. Firmy zobowiązały się “nie opracowywać ani nie wdrażać modelu ani systemu, jeśli środki łagodzące nie są w stanie utrzymać jego ryzyka poniżej [odpowiednich] progów”.
Jest to pierwsze takie porozumienie podpisane przez największych graczy na rynku generatywnej sztucznej inteligencji. Firmy zobowiązały się zaprezentować swoje systemy bezpieczeństwa AI przed kolejnym szczytem AI, który ma się odbyć we Francji.
Polska na razie z boku, czyli… mniej bezpiecznie? Jest UE
A w Polsce? Cóż, były deklaracje zespołu AI/PL, czyli grupy doradców ministra cyfryzacji Krzysztofa Gawkowskiego d/s AI. Grupa podczas spotkania w grudniu prezentowała swoje priorytety, w tym – bezpieczeństwo.
Agnieszka Mikołajczyk-Bareła poruszyła wówczas kwestie samego tworzenia sztucznej inteligencji. Tego, by powstające algorytmy były pozbawione uprzedzeń i stronniczości, żeby były niedyskryminujące, transparentne oraz „zgodne z wartościami społecznymi”. Ani słowa o sztucznej superinteligencji (AGI). Może słusznie. Na obecnym etapie rozwoju AI w Polsce, AGI to wciąż odległa perspektywa.
Na szczęście dodatkowo UE dba o bezpieczeństwo AI, również w Polsce. W związku z implementacją AI Act, w naszym kraju powstanie, jak zapowiedziało Ministerstwo Cyfryzacji, specjalny organ nadzoru rynku AI.
Źródło grafiki: Sztuczna inteligencja, model Dall-E 3