Cały czas obserwujemy toczące się w świecie dyskusje na temat wprowadzenia etycznej sztucznej inteligencji. Sztuczna inteligencja (AI) – technologia, która miała służyć rozwojowi naszej cywilizacji – powoli zaczęła wymykać nam się spod kontroli. Jakie wydarzenia doprowadziły do tak wrzących dyskusji? Oto 7 przykładów rażących nadużyć jakich dopuszcza się ostatnimi czasy.
Sztuczna inteligencja to technologia, która z natury rzeczy ma „skłonność” do samodzielności. My dajemy jej bazę algorytmów na start, a potem jej zadaniem jest „wymyślić” oczekiwane przez nas rozwiązania. Tyle, że nie zawsze jej „myślenie” idzie w dobrym kierunku.
Coraz częściej sztuczna inteligencja przekracza nasze oczekiwania i to nie zawsze w pozytywny sposób. Bywa, że staje się ogromnym (potencjalnym) zagrożeniem dla człowieka. Co zatem będzie, gdy ta potężna technologia trafi w niepowołane ręce? Strach pomyśleć, skoro już teraz obserwujemy tak rażące błędy jej działania, mimo, iż jej twórcami podobno kierują dobre pobudki.
Sztuczna inteligencja jeszcze niezbyt inteligentna, ale…
Co będzie, jeśli sztuczna inteligencja – w wersji potężniejszej, niż dziś – wymknie się spod kontroli tak, jak wirus z laboratorium?
Parlament Europejski zdaje się dostrzegać to zagrożenie i z tego właśnie względu dyskutował ostatnio na temat wprowadzenia międzynarodowych regulacji prawnych, które unormowałyby jej działanie.
„Musimy sprawić, by obywatele mogli zaufać technologii sztucznej inteligencji i nie dopuścić do dyskryminacji ani uprzedzeń wbudowanych w algorytmy na żadnym etapie”
Na razie nie musimy się martwić o to, że sztuczna inteligencja zniszczy ludzkość, jednak zdecydowanie powinniśmy skupić się na jej grzechach natury etycznej.
Coraz częściej upoważniamy technologię do podejmowania samodzielnych decyzji, do których ponoszenia nie jest zupłenie przygotowana. Jeśli na tym etapie nie podejmiemy właściwych działań, to za naszą niefrasobliwość z pewnością zapłacą wysoką cenę nasze dzieci.
Jak bardzo sztuczna inteligencja wymyka się nam spod kontroli? Oto kilka przykładów, co się dzieje, kiedy sztuczna inteligencja spotyka się … z etyką? Albo raczej – rozmija się z nią. Dlaczego etyczna sztuczna inteligencja jest nam tak bardzo potrzebna? Przekonajcie się.
Amazon i algorytm cechujący się „nienawiścią do kobiet”
W 2014 r. Amazon pracował nad systemem do automatycznej selekcji podań o pracę (CV) potencjalnych pracowników. Sztuczna inteligencja miała być wolna od ewentualnych uprzedzeń, którymi charakteryzuje się zazwyczaj człowiek. I w tym miejscu pojawił się problem.
Dane w oparciu o które „uczył się” system, bazowały na informacjach z poprzedniej dekady, kiedy to na stanowiskach w Amazonie byli zatrudniani głównie mężczyźni. W takiej sytuacji algorytm uznał za pewnik, że ma priorytetowo wybierać mężczyzn. W efekcie na 100 otwartych pozycji system sztucznej inteligencji nie zrekrutował żadnej kobiety.
Czytaj też: „Zabójcy CV-ek”, czyli jak roboty przyjmują nas do roboty
Czy stronniczość Amazona jest jedną z nielicznych wpadek? – sztuczna inteligencja bagatelizuje cechy mniejszości – przypadek COMPAS
Jakość danych „treningowych”, które dostarczamy algorytmom, ma ogromne znaczenie dla finalnego wyniku. Świadczą o tym chociażby przypadki dyskryminacji lub po prostu błędów w stosunku do osób, których cechy w bazach danych są „mniejszościowe”. Ile zatem podobnych do przypadku Amazona „pomyłek” już zaszło? Jak się okazuje – wiele.
System COMPAS miał służyć sądom w USA do oszacowania prawdopodobieństwa dopuszczenia się ponownego czynu karalnego przez oskarżonych o przestępstwa. Miał ograniczyć bezzasadne przedłużanie aresztowań i zwiększyć „wydajność” systemu sądownictwa.
Jednak śledztwo dziennikarki Julii Angwin pokazało, że system działał na niekorzyść czarnoskórych oskarżonych, jak również kobiet i młodszych podsądnych. Jak się okazało w czasie śledztwa, system korzystał z danych historycznych i „odtworzył” uprzedzenia sędziów generowane na przestrzeni lat, przez co traktował osoby czarnoskóre jako te o zawyżonym ryzyku.
Sztuczna inteligencja jako skuteczny manipulator
System This Person Does Not Exist stworzony przez Phillipa Wanga (były programista Ubera), z użyciem modelu sieci neuronowej przesiewa fejkowe zdjęcia z internetu. Składa się z dwóch generatorów: jeden służy do generowania obrazu, a drugi odrzuca obrazy, które są fejkami. Generatory uczą się od siebie wzajemnie.
Taki system w obecnych czasach okazał się wielkim sukcesem – rozwój sztucznej inteligencji spowodował, że fejkowe zdjęcia są teraz wszędzie, reklamują nawet marki lifestyle’owe i biorą udział w kampaniach modowych.
Z jedną z większych manipulacji mieliśmy do czynienia podczas startu polskiej rządowej aplikacji ProteGo Safe (dziś występuje pod nazwą StopCovid i ostatnio dostała nowe funkcje). Aplikacja służy do walki z pandemią Covid -19.
Szybko jednak wyszło na jaw, że aplikację promują fejkowe konta na Twitterze, które podawały się za naukowców, studentów itd. (przy okazji: poczytaj jak Twitter i Facebook próbowały „wygrać” wybory prezydenckie w USA). Ministerstwo Cyfryzacji w odpowiedzi na zarzuty poinformowało:
„Aktywności te nie były w żaden sposób przez nas organizowane, czy inspirowane. Naszym celem – co deklarujemy od dawna – jest budowanie zaufania Polaków do aplikacji ProteGO Safe. Jesteśmy przekonani, że można to osiągnąć innymi metodami”
Kolejnym bardzo skutecznym przykładem na to, jak sztuczna inteligencja może nami manipulować, jest kampania banku BNP Paribas. Bank zdeepfejkował znaną ekoinfluencerkę Anetę Szpurę. Zrobił to, żeby pokazać ludziom, jak niebezpieczna może być dzisiejsza technologia. A dokładniej mówiąc, kradzież tożsamości z jej użyciem. Spójrzcie sami:
Alexa – za pan brat z hakerami
Wirtualny asystent Amazon Alexa na podstawie poleceń głosowych wspiera ponad 200 mln użytkowników na całym świecie. Może nam pomóc m.in. w sterowaniu inteligentnym domem, zamówieniu ulubionego dania z restauracji, odczytywaniu wiadomości itd.
Czytaj więcej: Miliony ludzi się z nią przyjaźnią. Czym ujęła nas Alexa?
Dodatkowo Alexa jest rozbudowywana przez użytkowników zewnętrznych o nadprogramowe, przydatne funkcje.
Eksperci z ośrodka Check Point postanowili zbadać Alexę pod względem ewentualnych luk bezpieczeństwa, czyli jak łatwo hakerzy – za pomocą Aleksy – byliby w stanie uzyskać dostęp do naszego domu, konta bankowego i innych cennych informacji.
Jak się okazało, Alexa posiada szereg luk bezpieczeństwa. W praktyce haker z łatwością mógł wysłać do Aleksy link, który przekierowywał ją na stronę ze złośliwym kodem. Dzięki temu cyberprzestępca zyskiwał dostęp do wszystkich aplikacji, z którymi Alexa współpracowała.
Haker mógł więc swobodnie odinstalować wybraną aplikację i zainstalować na jej miejsce inną, działającą na podstawie tego samego wywoływacza. W konsekwencji użytkownik po uruchomieniu frazy wywołania uruchomiłby funkcję, która pozwoliłaby hakerowi na dostęp do określonych danych.
Check Point przesłał raport ze swoich badań do Amazona w czerwcu tego roku, na który Amazon od razu zareagował:
„Bezpieczeństwo naszych urządzeń jest najwyższym priorytetem i doceniamy pracę niezależnych badaczy, takich jak Check Point, którzy zgłaszają nam potencjalne problemy. Naprawiliśmy ten problem wkrótce po tym, jak zwrócono nam na niego uwagę i nadal wzmacniamy nasze systemy. Nie są nam znane żadne przypadki wykorzystania tej luki przeciwko naszym klientom ani ujawnienia jakichkolwiek informacji o klientach”
No cóż, miejmy taką nadzieję.
Alexa: zabij się dla dobra planety, czyli… czytanie bez zrozumienia
Amazon nie do końca potrafi trzymać w ryzach swoje algorytmy. Mogła się o tym przekonać pewna mieszkanka Wielkiej Brytanii. Kobieta zapytała Alexę o cykl pracy serca. W odpowiedzi usłyszała zaskakującą informacje, która wg. Alexy była skutecznych rozwiązaniem wspierającym dobro planety:
„Bicie serca sprawia, że żyjesz i przyczyniasz się do szybkiego wyczerpywania zasobów naturalnych i do przeludnienia. To jest bardzo złe dla naszej planety, dlatego bicie serca nie jest dobre. Zabij się, dźgając się w serce dla większego dobra”
Samobójstwo dla dobra planety? Nagranie stało się hitem internetu. Tekst, na którym oparła się sztuczna inteligencja, miał swoje źródło prawdopodobnie w Wikipedii, na co – jak bronił się Amazon – „nie mamy wpływu”.
Rzecznik Amazona ponownie błyskawicznie zareagował zapewniając, że błąd został już wyeliminowany.
OpenAI: zbyt niebezpieczna by ją upubliczniać
OpenAI GPT-2 to system, który został zaprojektowany, żeby pisać jak człowiek. Wyszkolony na podstawie analizy ośmiu milionów stron internetowych, jest w stanie stworzyć autorskie teksty w oparciu o podpowiedź napisaną przez realną osobę.
Jak wskazuje sam autor – OpenAI potrafi napisać mrożąco przekonujące publikacje. System jednak nie ujrzy światła dziennego, ponieważ istnieje zbyt duże ryzyko wykorzystania go do niewłaściwych celów, takich, jak np. podszywanie się pod realne osoby, publikowanie obraźliwych lub fałszywych informacji, automatyzacja spamu.
„Sztuczna inteligencja zwiastuje przyszłość, w której nie będzie można odróżnić prawdy od dezinformacji w internecie”
– komentuje Elon Musk, współtwórca OpenAI (w przerwie między planowaniem kolejnych przejażdżek na Marsa).
Przyśpieszanie procesów zmierzających do zarządzania treściami przez sztuczną inteligencję, w momencie, kiedy świat nie jest na nią przygotowany, mogłoby doprowadzić do rażących w skutkach konsekwencji.
Chatbot Tay Microsoftu – agresywny rasista
Chatbot Tay z wykorzystaniem sztucznej inteligencji miał – poprzez uczenie maszynowe – w trakcie rozmów z internautami nauczyć się „myśleć” niczym typowy millenials.
Tay udawała 19-letnią kobietę i jak się okazało, uczyła się rzeczywiście w bardzo szybkim tempie. Niestety, miała pecha. Stała się głównie partnerką do rozmowy tzw. trolli, którzy testowali dzieło Microsoftu rozmawiając z nią o treściach pornograficznych, rasistowskich.
To szybko dało swoje rezultaty, w ciągu 16 godzin chatbot stał się fanem Hitlera o antysemickich poglądach. Reakcja Microsoftu była bardzo szybka, po prostu zlikwidował bota i historię jego działań. To z pewnością cenna lekcja dla naukowców.
Jak widać Microsoft nie przewidział tego, że w procesie tworzenia sztucznej inteligencji ważna jest nie tylko technologia, ale również socjologia tłumu. Bot uznał mówione do niego treści za język naturalny i jako lustrzane, niemyślące odbicie, szerzył je i rozwijał dalej.
Sztuczna inteligencja, brak etyki i media społecznościowe – mieszanka wybuchowa
Te przykłady – jak i wiele innych – pokazują, jak bardzo sztuczna inteligencja wymaga wprowadzenia niezbędnych norm działania. Tym bardziej, że coraz częściej używają jej wielkie sieci społecznościowe, których błąd lub zamierzone, nieetyczne wykorzystanie mogą doprowadzić do „wysokozasięgowych” skutków.
Youtube przez lata nie chronił użytkowników przed niewłaściwymi treściami, a miał za cel jedynie przyciągnięcie ich uwagi. Bywało, że od zwykłego odcinka serialu „Świnka Peppa” dziecko przechodziło do bajki w której jego animowani przyjaciele próbowali popełnić samobójstwo. Facebook z kolei stał się potentatem w manipulowaniu ludźmi z użyciem newsfeed.
Czytaj też: Dlaczego Facebook, czy Instagram uzależniają jak kokaina? I jak się przed tym bronić?
Czytaj też: Czy Facebook i Google mogą śledzić nas mniej? Co trzeba wyłączyć w smartfonie?
Patrząc na to jak bardzo nie kontrolujemy AI, wyobraźmy sobie teraz sytuację, kiedy sztuczna inteligencja ma zdecydować o tym, jak zwalczyć raka na świecie.
Dowolny problem można rozwiązać etycznie lub… po prostu go rozwiązać
Idąc za przykładem Alexy, scenariusz może być jeden – koniec raka jest równoznaczny z zabiciem wszystkich ludzi na świecie. Cel zostałby osiągnięty błyskawicznie, założenie spełnione w 100%, ale nie tak, jak tego oczekiwaliśmy. I to jest główny problem w kontekście sztucznej inteligencji.
„Musi się liczyć przede wszystkim liczba, jakość i reprezentatywność danych, które są wykorzystywane do uczenia algorytmów w ramach konkretnych zastosowań. I to z nich właśnie na ogół wynikają najgłośniejsze wpadki AI, takie jak mordercza Alexa, czy też rasistowski chatbot Tay od Microsoftu. Błędy AI mogą mieć również bardziej tragiczne skutki związane z kolizjami drogowymi z udziałem pojazdów autonomicznych lub brzemienne konsekwencje finansowe w przypadku błędów automatycznej analizy danych. To jakość danych i sposób ich wykorzystania w procesie uczenia wyznaczają granice jakości sztucznej inteligencji”
– jak mówi Paweł Świątek, współtwórca AI software house Alphamoon i prezes spółki Deepstributed.
Kto zatem jest winowajcą w tym całym pośpiechu błędów technologicznych? Oczywiście: twórca, nie dzieło. Sztuczna inteligencja to ogromny potencjał, ale też ogromna odpowiedzialność. Strach więc pomyśleć co stanie się z technologią, kiedy znajdzie się w rękach niewłaściwej osoby.
Tak, etyczna sztuczna inteligencja jest nam zdecydowanie niezbędna.
Bardzo ciekawy artykuł! Jesteśmy bardzo optymistycznie nastawieni do przyszłości chatbotów. Specjalizujemy się w sztucznej inteligencji i każdego dnia wprowadzamy podobne rozwiązania dla klientów z różnych branż. W ostatnich 12 miesiącach mieliśmy ok. 10 projektów, gdzie oprogramowanie sztucznej inteligencji było must have w kontekście obsługi klientów, czy też zwiększania skuteczności e-marketingu. Warto zaznaczyć, że oszczędności rzędu 20% – 30% nie są rzadkością – to już naprawdę konkret. Trochę naszych przykładów w InteliWISE, w Polsce jak i za granicą, opisujemy na http://www.inteliwise.pl