Cały wywiad możesz odsłuchać na podcaście HomoDigital albo bezpośrednio na Anchor.fm
Przeczytaj też spisane fragmenty rozmowy z naszym gościem:
Część 1 – Rewolucja w dziennikarstwie (tekst)
Część 3 – Czy AI może zabrać pracę człowiekowi? (tekst)
Część 2 – Czy AI może być nieetyczna? Jaka będzie etyka AI ?
Najważniejsze cytaty z rozmowy:
Wyjaśnianie sztucznej inteligencji jest trudniejsze niż samo jej budowanie. Wątpię, aby ktokolwiek z urzędników nadzorujących rynek był w stanie zajrzeć do środka i powiedzieć co tam się dzieje. Nawet jeśli mieliby dobrych ekspertów, to dojście do tego, kto użył jakich danych i czy bias zawarty w modelu jest w nim wbudowany specjalnie, jest nie do wyłapania. W tym momencie tego się po prostu nie da udowodnić
Nie jestem fanem nadmiaru regulacji, bo nie wierzę, że przyniosą one skutki. Szczególnie że w tym momencie Unia Europejska jako jedyna wprowadza silne regulacje. To spowoduje, że innowacje będą powstawać w Chinach i w Stanach Zjednoczonych. Kraje Unii Europejskiej już nie są konkurencyjne, jeżeli chodzi o inwestycje związane z nowymi technologiami. W Europie w ogóle nie ma dużych spółek technologicznych
Maciej Samcik: Porozmawiajmy o etyce. Czy sztuczna inteligencja jest lub będzie w stanie, tak pokierować procesem, którym zarządza, aby uwzględnić aspekty etyczne?
Przemysław Chojecki: Tak i jest cała duża działka o tym, jak robić etyczne AI. Nie zapominajmy jednak, że sztuczna inteligencja jest tylko narzędziem. Jeżeli jesteś świadomy tego, co robisz i chcesz używać jej do dobrych celów, to nic złego się nie stanie. Jeżeli chcesz używać do złych, to też możesz to zrobić. Ja myślę o algorytmach sztucznej inteligencji jako czymś, co może znacząco wspomóc rezultaty, wyniki czy ogólnie pracę, którą wykonujemy. Przyspieszyć i zautomatyzować w niej te procesy, które są najbardziej powtarzalne.
Marcin Ledworowski: Etyka to także dostarczanie danych algorytmom sztucznej inteligencji. Jest takie pojęcie jak bias, czyli uprzedzenie wynikające z zestawu danych, jaki został dostarczony. W jaki sposób wybierane są osoby, które zasilają sztuczną inteligencję danymi?
Przemysław Chojecki: Świetne pytanie. To jest cały oddzielny wątek. Każde dane mają jakiś bias więc pytanie, jaki bias wybierzemy? Trudno rozważać to na poziomie abstrakcyjnym. Faktem jest, że dane mają kolosalny wpływ na to, co uzyskujemy na końcu. Algorytm, który budujemy, nigdy nie jest w pełni doprecyzowany, są tam pewne wagi, które dopiero się doprecyzowują na bazie przykładów, które pokazujemy algorytmowi. Więc to jakie dane mu pokażemy, na których on się potem uczy, ma kolosalne znaczenie dla wyników.
Maciej Samcik: Te kryteria też są określane przez projektanta sztucznej inteligencji?
Przemysław Chojecki: Tak, one są określane przez człowieka.
Marcin Ledworowski: Człowiek podejmuje decyzje i wybory, kierując się np. przykazaniami boskimi, dobrem, ogólnie pojętym humanizmem. Potem komputer czy maszyna robi dokładnie to, co przewidział projektant. A kto wybiera projektanta?
Przemysław Chojecki: Ten, kto go zatrudnia i ma nad nim władzę. Najczęściej pewnie firma, która chce potem użyć jego algorytmów. Czyli ostatecznym decydentem są osoby na górze firmy.
Narzędzia zysku
Marcin Ledworowski: Czyli jeśli firmie zależy na większych zyskach, to będzie się ona kierować wyłącznie zyskiem i nie będzie się oglądać ani na humanizm, ani na przykazania?
Przemysław Chojecki: Sztuczna inteligencja nie jest autonomiczna. Wszystko wynika z tego, co robią ludzie. AI bardziej jest zogniskowaniem naszych wad, ale i zalet jednocześnie. Sztuczna inteligencja jest tylko narzędziem w naszych rękach.
Marcin Ledworowski: Czy Ciebie ktoś weryfikuje?
Przemysław Chojecki: Oczywiście, że nie.
Etyka AI – ramy europejskie
Marcin Ledworowski: Rozumiem, że zgadzasz się, że ograniczenia prawne, nad którymi pracuje obecnie Unia Europejska, chcąc nadać tej kwestii jakieś ramy, są potrzebne. Nie masz z tym problemu, że ktoś będzie narzucał Ci sposób działania?
Przemysław Chojecki: Nie mam, bo pewnie trzeba to jakoś regulować, przy czym z drugiej strony zastanawiam się, czy jest to możliwe? Bo oczywiście zasady można ustalać, ale pytanie, czy jest potem to do sprawdzenia? To jest ciekawy i złożony problem. Jest cały wątek robienia wyjaśnialnej sztucznej inteligencji (explainable AI). A wyjaśnianie sztucznej inteligencji jest trudniejsze niż samo jej budowanie. Wątpię, aby ktokolwiek z Komisji Europejskiej był w stanie zajrzeć do środka i powiedzieć co tam się dzieje. Nawet jeśli mieliby dobrych ekspertów, to dojście do tego, kto użył jakich danych i czy ten bias w modelu jest wbudowany specjalnie, jest nie do wyłapania. W tym momencie tego się po prostu nie da udowodnić.
Maciej Samcik: Być może rozwiązaniem jest RODO dla sztucznej inteligencji? Sytuacja, w której każda sztuczna inteligencja wprowadzana na rynek, musi mieć coś w rodzaju opisu, jakimi kryteriami się kieruje. To może mieć znaczenie np. w przypadku robotów, które wspomagają zarządzanie pieniędzmi ludzi. Bo są przecież takie systemy, gdzie po odpowiedzeniu na kilka pytań, robot ustawia mi portfel inwestycyjny. I ja powinienem znać te kryteria, a dziś tego nie wiem.
Przemysław Chojecki: Nie jestem fanem dużych regulacji, bo nie wierzę, że przyniosą one skutki. Szczególnie że w tym momencie Unia Europejska jako jedyna wprowadza aż tak silne regulacje. To spowoduje to, że innowacje będą powstawać w Chinach i w Stanach. Kraje Unii Europejskiej już nie są konkurencyjne, jeżeli chodzi o inwestycje związane z nowymi technologiami. W Europie w ogóle nie ma dużych spółek technologicznych.
Maciej Samcik: To jest duże zagrożenie, ale jeśli nie arbitraż regulacyjny, to co? Jak spowodować, żeby sztuczna inteligencja nie zrobiła nam kiedyś krzywdy? Jeśli nie regulacje, to jaki widzisz inny pomysł na to, żeby zabezpieczyć się przed niewłaściwym jej użyciem?
Przemysław Chojecki: Jak nie kijem to marchewką, czyli dawać pozytywne wzmocnienia, jeżeli idziesz w dobrą stronę np. zwolnienia z podatków. I to byłoby też łatwiejsze do egzekucji niż ściganie ludzi od „złej sztucznej inteligencji”.
Marcin Ledworowski: A skąd wziąć definicję tej dobrej i tej złej AI?
Przemysław Chojecki: Zakładam, że Komisja musi jakoś uregulować, co jest dobrą, a co złą, co jest etyczne, a co nie. Oni już to na pewno wiedzą i mają to kryterium. Dlatego, zamiast ścigać to, co jest niestyczne, powinni bardziej oczekiwać, że zgłoszą się do nich ci, którzy mają etyczną AI. Takie firmy powinny dostawać zniżki i ulgi. Odwróciłoby to całą dynamikę: to nie KE musiałaby ścigać startupy i zaglądać im w algorytmy, tylko bardziej oni by się sami do nich zgłaszali. Wtedy jest większa szansa, że regulacje będą skuteczne.
Rozmawiali:
Maciej Samcik – założyciel, redaktor naczelny i autor HomoDigital. Publicysta, ekonomista, analityk zjawisk finansowych. Od 2009 roku właściciel serwisu „Subiektywnie o finansach”.
Marcin Ledworowski – założyciel i autor HomoDigital. Absolwent studiów telekomunikacyjnych i MBA w Gdańsku (University of Strathclyde & GFKM). doświadczony menedżer z sektora finansowego i telekomunikacyjnego.
Tekst opracowała: Natalia Mituniewicz
Zdjęcie ilustracyjne © Homodigital.