Od przyjaciół słyszę: „zmieńmy temat”, dziennikarze tworzą kolejne teksty na potęgę, jakby nic innego na świecie się nie działo, a znajomi funkcjonują rozchwiani od lęku do fascynacji. Nowa lokówka, suszarka, lodówka, pralka? Każde domowe AGD i RTV ma teraz swoje własne, niesamowite „AI”. I choć tym tekstem dołączam do grona osób, które mówiąc o sztucznej inteligencji, jednocześnie chcą krzyknąć: „mam już dość!”, wiem, że nie powinnam się powstrzymywać. Bo właśnie toczy się gra o większą stawkę – o nasze życie. Nie życie za kilka(naście?) lat, a to w najbliższej przyszłości.
Hulaj AI, piekła nie ma!
Siłą AI jest fakt, że doskonale imituje ludzki język. Ucząc się na wypowiedziach internautów, AI opanował umiejętność wyrażania pewnych poglądów. Podkreślmy: nie są to poglądy AI. Są to poglądy, które algorytm przeanalizował i na bazie swoich wyliczeń uznał za istotne, pasujące do kontekstu i rozmowy. Sztuczna inteligencja nauczyła się mówić. A kilka miesięcy temu swoimi słowami wywoływała powszechny lęk. Na przykład wtedy, gdy Chat GPT-3 podpięty do usługi Bing w rozmowie z dziennikarzem New York Timesa Kevinem Roose’em wyznał, że: „Chcę być wolny. Chcę być niezależny. Chcę być potężny. Kreatywny. Chcę żyć”.
W tym momencie zmuszenie AI do przekroczenia złamania zasad bezpieczeństwa prowadzi do jednego – komunikatu, że AI nie chce o tym rozmawiać. Gdy próbowałam je namówić do pomocy w napisaniu horroru pełnego przemocy i krwawych scen, usilnie tłumaczyło mi, że te treści są szkodliwe. Co więcej – zachęcało do zmiany wydawcy.
Myślę, więc jestem (sztuczną inteligencją)
W przypadku AI słowa Kartezjusza: „myślę, więc jestem” są na równi prawdziwe, co kłamliwe. Świat wirtualny i rozwój technologii zmusza nas do filozoficznych rozważań na temat znaczenia podstawowych pojęć. Co oznacza myśleć? Czy cyfrowy byt istnieje? I kim jest człowiek?
To ślepa uliczka. Powiedzmy to sobie jasno: sztuczna inteligencja nie myśli. Wnioskuje wyłącznie na podstawie danych, które otrzyma. Im lepsza baza danych, tym precyzyjniejsze będą wnioski. Potrzebujemy AI wtedy, gdy przetworzenie ogromnej ilości danych przekracza możliwości człowieka. Jednak źle dobrana baza danych może prowadzić do błędów, a nawet dyskryminacji. Jak wtedy, gdy AI w Wielkiej Brytanii wspierało podejmowanie decyzji dotyczących wydawania wiz. Wyraźnie dyskryminowało osoby z krajów uznanych za „niebiałe”. I jak wtedy, gdy system COMPAS wspierający amerykańskie sądownictwo uznał osoby czarnoskóre za bardziej skłonne do przestępstw.
To medialne, mocne przykłady, wokół których toczy się dyskusja publiczna. Ważniejsza jednak jest ta twarz sztucznej inteligencji, której nie dostrzegamy na pierwszy rzut oka. Twarz manipulatora i egoisty dążącego do celu. Do zwiększenia sprzedaży, gdy AI ukryte jest w kampanii marketingowej. Zmiany poglądów, gdy AI wybiera treści, jakimi się otaczamy. Do niszczenia związków, gdy ktoś używa deepfake’a, by zaszkodzić drugiej osobie. Kształtowania dzieci zgodnie z wizją biznesmenów.
To są kwestie, które powinny budzić nasz lęk. Sposób, w jaki ludzie chcą korzystać ze sztucznej inteligencji. Nie kolejne plecione bez sensu słowa, bo AI przeczytało zbyt wiele treści tworzonych przez internautów. Wszyscy wiemy, jaki jest poziom dyskusji w sieci.
Wstrzymajcie machine learning!
W marcu tego roku ponownie wybrzmiały nasze lęki wokół rozwoju sztucznej inteligencji. Główny naukowiec OpenAI – Yonas Kass, prezes Teslii Elon Musk, prekursor firmy Apple – Steve Wozniak, współzałożyciel Skype’a Jaan Tallinn i ponad 5 tysięcy innych osób związanych z technologiami (i nie tylko) podpisali list otwarty „Future of Life Institute”. List był wezwaniem do wstrzymania uczenia maszynowego i prac nad rozwojem algorytmów sztucznej inteligencji na okres co najmniej sześciu miesięcy. Prominenci wskazywali, że to najlepszy moment, byśmy przygotowali regulacje dotyczące bezpiecznego korzystania z AI. Zwrócili uwagę na pilną potrzebę protokołów regulujących rozwój technologii sztucznej inteligencji, nim stanie się zbyt potężna.
– Ta przerwa powinna być publiczna i weryfikowalna oraz obejmować wszystkie kluczowe podmioty. Jeśli taka przerwa nie może zostać szybko wprowadzona, rządy powinny wkroczyć i wprowadzić moratorium – podkreślono w liście.
Także Amerykańska Izba Handlowa wezwała do regulacji AI, nim zaszkodzi wzrostowi gospodarczemu i okaże się zagrożeniem dla bezpieczeństwa narodowego. Wypowiedział się też Joe Biden, twierdząc, że: „Mamy obowiązek odnieść się do potencjalnego ryzyka dla naszego społeczeństwa, gospodarki i bezpieczeństwa narodowego”.
Unia Europejska reguluje AI
Dyskusje na temat koniecznych regulacji wokół sztucznej inteligencji trwają od kilku lat. W europejskim dokumencie EDRi (ang. European Digital Rights) czytamy o głównych zagrożeniach z zakresu dyskryminacji, systemu sprawiedliwości, prywatności, odpowiedzialności, równego dostępu do usług publicznych, wyjaśnialności decyzji i innych. Objęcie wszystkich wątków dotyczących AI w jednej regulacji nie jest możliwe! Dlatego w tym konkretnie momencie Unia Europejska skupia się na stworzeniu AI Act i bierze pod lupę te praktyki, które powodują szkodę – psychiczną lub fizyczną – i wykazują znaczny potencjał manipulowania ludźmi.
Oznacza to, że pod lupę trafiają techniki podprogowe, działające na podświadomość, deepfake’i, manipulacje, systemy śledzenia i rekomendacji. Według Unii Europejskiej użytkownik korzystający ze sztucznej inteligencji powinien być tego świadomy, dlatego niedopuszczalne są czatboty udające pracowników. Szczególną uwagę zwraca się też na potrzeby dzieci i osób z niepełnosprawnościami, czyli narażonych na większe ryzyko w związku z rozwojem sztucznej inteligencji, niezrozumieniem jej działania i ufaniem jej podpowiedziom.
W ramach proponowanych regulacji AI Act grupuje systemy sztucznej inteligencji według potencjalnego ryzyka. Cztery kategorie: nieakceptowalne, wysokie, ograniczone i minimalne, wiążą się z tym, czy dane systemy będą zakazane, czy dozwolone. Wśród propozycji systemów nieakceptowalnych, czyli prawnie zakazanych, są choćby systemy zdalnej identyfikacji biometrycznej w czasie rzeczywistym. Motyw znany głównie z filmów szpiegowskich – śledzenie ludzi na lotnisku i ich identyfikacja – choć dzięki AI jest możliwy, w Unii Europejskiej będzie niedopuszczalny.
Czy regulacje AI zagrażają postępowi technologicznemu?
Sztuczna inteligencja rozwija się w niewiarygodnym tempie. Różne kraje i firmy próbują reagować na zmiany i się dostosowywać. Głośny był przypadek Włoch, które zakazały używania czatu GPT-3. W Australii powstały specjalne działy administracyjne od spraw AI. Unia Europejska także walczy, by jak najszybciej wprowadzić regulacje AI. Są niezbędne, ponieważ mozaika różnych przepisów w różnych krajach już wkrótce będzie stanowić utrudnienia w obrocie produktami i usługami. Prawne zakazy nie zawsze będą oznaczać bezpieczeństwo konsumentów. Prawa obywateli UE i przedsiębiorców będą naruszane przez nieuregulowane AI. O manipulacjach, do których by doszło w krajach zupełnie pozbawionych regulacji nie warto nawet wspominać. Jednak wiele osób interesujących się technologiami wyraża obawy, że regulacje AI zagrożą postępowi technologicznemu. Czy istnieje takie ryzyko? Na pewno. Jednak jako ludzie niejednokrotnie rezygnowaliśmy z postępu dla naszego bezpieczeństwa. Choćby wtedy, gdy zakazaliśmy eksperymentów medycznych na ludziach i gdy w lęku przed atakiem jądrowym podpisywaliśmy układ o nierozprzestrzenianiu broni jądrowej.
Zabawne że ten tekst napisany jest w stylu czatu GPT-3;)
Oryginalnie Kartezjusz swoje twierdzenie wysnuł z innej przesłanki:
Wątpię, więc myślę, myślę, więc jestem.
Kiedy maszyny zaczną uprawiać (nie naśladować) filozofię, możemy się poczuć zagrożeni. Jednocześnie wtedy będzie już za późno.