Polskie i nie tylko polskie startupy działające w Unii Europejskiej zmagają się obecnie z trudnościami finansowania swoich projektów. Powodem są m.in. wysokie stopy procentowe i cykliczność funduszy europejskich przeznaczanych na ten cel. Teraz startupy, zwłaszcza te związane bezpośrednio z rozwiązaniami sztucznej inteligencji (AI), będą miały nowy ból głowy. Nadchodzą unijne regulacje AI.
Kraje UE i instytucje europejskie po wielu miesiącach negocjacji uzgodniły treść nowych regulacji dotyczących sztucznej inteligencji (tzw. AI Act), którego głównym założeniem jest stworzenie ram dla, jak to określiła przewodnicząca Komisji Europejskiej Ursula von der Leyen, „sztucznej inteligencji, której możemy zaufać”. Jednak nowe regulacje w tej szczególnie innowacyjnej dziedzinie mogą stanowić istotny problem dla europejskich firm w tym sektorze.
Porozumienie to jeszcze nie unijne prawo. Pakiet nie został jeszcze formalnie zatwierdzony, ale po osiągnięciu porozumienia pomiędzy Komisją Europejską a Parlamentem Europejskim i Radą Europejską jego uchwalenie powinno zająć najwyżej kilka tygodni. Najszybciej, bo po 6 miesiącach od opublikowania nowego prawa, wejdą w życie zapisy o zakazanych formach AI. Potem, po 12 miesiącach, zaczną obowiązywać przepisy dotyczące AI ogólnego zastosowania, a pozostałe normy – po 24 miesiącach.
Dotąd sztuczna inteligencja nie była uregulowana na szczeblu europejskim. Początkowe plany uregulowania sektora znacznie przyspieszyły po tym, jak swoje możliwości pokazały duże modele językowe (LLM) takie jak GPT od OpenAI.
Z jednej strony można powiedzieć, że Unia Europejska zabiera się do zmagań z dynamicznym rozwojem sztucznej inteligencji w charakterystyczny dla siebie sposób – tworząc biuro z urzędnikami – ale z drugiej strony, przy tak żywiołowym, a potencjalnie ryzykownym, rozwoju technologii AI, trudno wszystko pozostawić wolnemu rynkowi.
Unijne porozumienie zakłada równowagę między ochroną użytkowników sztucznej inteligencji a zapewnieniem „suwerenności w zakresie AI”. W tym przypadku chodzi o przynajmniej częściowe uwolnienie się od rozwiązań spoza Europy, szczególnie Stanów Zjednoczonych. Z punktu widzenia europejskiego sektora technologicznego, który będzie musiał konkurować z nieuregulowaną konkurencją zza Oceanu, nowe regulacje są istotnym ryzykiem.
Świadomość tych zagrożeń z całą pewnością wśród polityków europejskich istnieje. Ostatnio dał temu wyraz wicekanclerz i minister gospodarki Niemiec Robert Habeck, który stwierdził, że jeśli Europa będzie miała najlepsze regulacje, ale żadnych Europejskich firm w sektorze AI, „to nie za dużo osiągnęliśmy”.
Co może nam zatem przynieść innowacyjność i pomysłowość unijnych urzędników? Sprawdźmy.
Startupy w całej UE mają już z regulacjami problemy
Jak pokazuje niedawne badanie think tanku Startup Poland, jeszcze przed ogłoszeniem kształtu regulacji dotyczących sztucznej inteligencji tylko co trzeci polski startup deklarował brak problemów ze zmieniającymi się przepisami unijnymi i krajowymi, podczas gdy 42% narzekało na trudności z interpretacją tych regulacji, a 41% twierdzi, że nie zawsze wie, czy nowe regulacje ich dotyczą. Niemal jedna trzecia startupów uważa, że zmian jest za dużo, by za nimi nadążać.
Jednocześnie aż 84% firm deklaruje, że na bieżąco monitoruje zmiany legislacyjne na rynku polskim i UE, a tylko 14% przyznaje się do zaniedbań w tym zakresie. Teoretycznie firmy powinny więc być dobrze zorientowane w zakresie prawa europejskiego, mając świadomość, jak ważne jest to dla ich działalności.
Czy nowe regulacje stanowią więc ryzyko dla polskich startupów? Jest spore ryzyko, że tak się stanie. Wykorzystywanie sztucznej inteligencji jest w ostatnim czasie bardzo popularne wśród polskich startupów. Jedna trzecia z nich deklaruje działalność w zakresie AI, np. deep tech i internet rzeczy, więc regulacje unijne będą tych firm dotyczyć.
„Problemy z regulacjami dotyczą nie tylko polskich firm. Swoista „lawina regulacyjna”, z jaką miały do czynienia rynki cyfrowe w UE w ostatnich latach, jest szczególnie dotkliwa dla małych firm” – ostrzega Inés Moreno-Alonso, dyrektor do spraw UE w Allied for Startups, globalnej sieci organizacji startupowych, cytowany w raporcie.
„Dla mniejszych graczy, dysponujących z natury mniejszymi zasobami, zjawisko to może stanowić barierę wejścia na rynek. (…) różne przepisy kolidują ze sobą i nakładają się na siebie, uniemożliwiając przedsiębiorcom dostosowanie się do nich. Ta forma asymetrycznych regulacji zakłóca łańcuch wartości i podważa konkurencyjność” – ostrzega Moreno-Alonso.
Czy nowa regulacja wpłynie negatywnie na innowacje? Tego jeszcze nie wiemy. Ale historyczne doświadczenia z regulacjami UE w obszarze cyfrowym nie napawają optymizmem. Według badania zleconego przez Bitkom, niemieckie stowarzyszenie gospodarki cyfrowej, wprowadzenie regulacji GDPR dotyczącej ochrony danych spowodowało wstrzymanie przynajmniej niektórych projektów innowacyjnych wśród 86% badanych firm, a wśród trzech czwartych doprowadziło do porażki takich projektów.
Regulacje AI wpływają również na dostęp konsumentów do usług
Dość rygorystyczne europejskie regulacje wpływają nie tylko na firmy działające w Unii Europejskiej, ale i na dostępność usług dla obywateli UE. W szczególności dość napięte relacje Komisji Europejskiej z amerykańskimi gigantami technologicznymi doprowadziły do opóźnień we wdrażaniu przez te ostatnie ich nowych usług w Europie.
Przykładowo, mikroblogowy serwis Threads należący do Mety, właściciela Facebooka, został uruchomiony w Stanach Zjednoczonych 5 lipca, ale w UE doczeka się swojej premiery dopiero w czwartek 14 grudnia. Według doniesień medialnych było to związane z koniecznością dostosowania usługi do regulacji unijnych, w szczególności Digital Markets Act (DMA).
O tym, jak Threads zadziałają w Polsce w czwartek 14 grudnia, będzie na bieżąco informować na portalu HomoDigital Sylwia Błach.
Podobna sytuacja występuje w przypadku Barda, chatbota opartego na dużym modelu językowym (LLM) firmy Google. Uruchomiony w USA i Wielkiej Brytanii w marcu tego roku i w dalszych 180 krajach w maju dotarł do UE dopiero w lipcu, częściowo w wyniku obaw o zgodność ze wspomnianą wyżej regulacją GDPR określającą zasady ochrony danych, a częściowo z powodu decyzji irlandzkiego regulatora, który zażądał od Google’a oceny wpływu na ochronę danych.
W ostatnich dniach Google udostępnił nową wersję Barda opartą na modelu językowym Gemini, w niemal całym świecie. Niemal, bo nie w UE i kilku nieunijnych krajach Europejskiego Obszaru Gospodarczego (Islandia, Norwegia, Szwajcaria i Turcja), które stosują się do prawa UE. Z tego też powodu trudno nam zrecenzować to narzędzie, które na razie zbiera kontrowersyjne opinie, w części podważające jego przełomowość.
Biurokratyczny tor przeszkód dla nowszej i potężniejszej AI
A jakie są te nowe zasady? Niewiele się zmieni dla już ugruntowanych i powszechnie stosowanych systemów sztucznej inteligencji, takich jak silniki rekomendacji czy filtry antyspamowe. Takie rozwiązania Komisja Europejska opisuje jako mechanizmy niskiego ryzyka, dla których nie będą wprowadzane żadne nowe wymagania.
Jednak systemy podwyższonego ryzyka, np. te związane z infrastrukturą, urządzeniami medycznymi, wspierające rekrutację na uczelnie czy do pracy, a także te związane z porządkiem prawnym, będą miały dużo wyższe wymagania. Tego typu rozwiązania będą musiały mieć podsystemy ograniczania ryzyka, zbudowane powinny być na zbiorach danych wysokiej jakości, mieć stały ludzki nadzór i spełniać wymagania dotyczące cyberbezpieczeństwa.
Niektóre systemy sztucznej inteligencji zostaną całkowicie zabronione, na przykład te, których celem jest manipulacja zachowaniami ludzkimi. Zabronione zostaną też pewne zastosowania biometrii.
Istotne zmiany dotyczą pewnych zakresów nazywanych sztuczną inteligencją ogólnego zastosowania, a więc w dużej mierze najnowszych systemów generatywnej AI. Według unijnych urzędników najpotężniejsze z takich modeli mogą stanowić ryzyko systemowe i zostaną na nie nałożone zobowiązania dotyczące zarządzania ryzykiem, monitorowania poważnych incydentów czy przeprowadzanie całościowej oceny modelu.
To zła wiadomość dla podmiotów oferujących modele generatywnej AI lub nad nich pracującymi, w tym również dla polskiego projektu PLLuM, o którym pisałem tu. Pierwsze wersje PLLuM powinniśmy zobaczyć już w połowie 2024 r.
Co prawda regulacje dotyczące AI ogólnego przeznaczenia wejdą w życie dopiero rok po opublikowaniu nowej regulacji, ale to prawdopodobnie zostawi i tak niewiele czasu na dostosowanie się do nowych wymagań i istotnie zwiększy obciążenia autorów tych modeli.
Przeciw uregulowaniom dotyczącym tak zwanych modeli bazowych (najistotniejszych części dużych modeli językowych) szczególnie mocno protestował Mistral AI, francuska firm rozwijająca duże modele językowe (LLM). Mistral chciał, by wszystkie modele generatywnej sztucznej inteligencji były wyłączone z regulacji. Firma twierdzi, że modele bazowe to tylko wyższe poziomy języków programowania i regulowanie ich byłoby jak regulowanie języka programowania C.
Chiny i USA z uwagą będą się przyglądać skutkom
A co o zjawisku – regulacje AI w UE – sądzą dwie największe światowe potęgi – USA i Chiny. Te dwa mocarstwa gospodarcze, rywalizujące ze sobą również na poziomie technologicznym, od dawna bardzo uważnie przyglądają się europejskim regulacjom w zakresie AI, i przyjrzą się na pewno obecnym przepisom.
Amerykańscy ustawodawcy z całą pewnością będą chcieli uniknąć błędów swoich europejskich kolegów i pod tym kątem będą monitorować rozwój wydarzeń w Europie.
Dla Pekinu o wiele istotniejsze jest to, na ile regulacje UE osłabią sektor sztucznej inteligencji na Starym Kontynencie, dając Chinom przewagę konkurencyjną i strategiczną w kontaktach przemysłowych i handlowych, a ostatecznie również – politycznych.
To obecnie najpoważniejsze pole starcia globalnych potęg. UE chce być na to lepiej przygotowana.
Czytaj też: Bezpieczeństwo gospodarcze Europy. Cztery kluczowe technologie i dwa ryzyka
Czytaj też: Zamieszanie kadrowe w OpenAI, a kierunki rozwoju sztucznej inteligencji (AI)
Źródło zdjęcia: Christian Lue/ Unsplash