AI Act, dokument definiujący ramy sztucznej inteligencji w Unii Europejskiej, jasno określa systemy, które nie są (i w najbliższej przyszłości: nie będą) dozwolone. Chodzi o zastosowania sztucznej inteligencji, które mogą krzywdzić obywateli UE i powodować nierówności społeczne. Dziś przyglądam się liście systemów AI zakazanych przez UE.
Szczegółowe wytyczne dotyczące zakazanych systemów AI w Unii Europejskiej
Choć AI Act opisuje zakazane systemy, to Komisja Europejska w lutym przygotowała szczegółowe wytyczne dotyczące zakazanych praktyk w zakresie sztucznej inteligencji. Znajdziesz je pod tym linkiem: Komisja publikuje wytyczne w sprawie zakazanych praktyk w zakresie sztucznej inteligencji (AI), zgodnie z definicją zawartą w akcie w sprawie sztucznej inteligencji.
Jak czytamy na stronie Komisji: „Wytyczne mają na celu zapewnienie spójnego, skutecznego i jednolitego stosowania aktu w sprawie sztucznej inteligencji w całej Unii Europejskiej. Chociaż dostarczają one cennych informacji na temat interpretacji zakazów przez Komisję, nie są wiążące, a prawne interpretacje są zastrzeżone dla Trybunału Sprawiedliwości Unii Europejskiej (TSUE).
Wytyczne zawierają wyjaśnienia prawne i praktyczne przykłady, aby pomóc zainteresowanym stronom zrozumieć i spełnić wymogi aktu w sprawie sztucznej inteligencji. Inicjatywa ta podkreśla zaangażowanie UE we wspieranie bezpiecznego i etycznego krajobrazu sztucznej inteligencji.”
Załączony dokument jest długi, ale wart lektury, by wiedzieć, jakie potencjalne zagrożenia związane z AI w Europie możemy włożyć między bajki.
Zakazane systemy AI w Unii Europejskiej
Akt w prawie sztucznej inteligencji (AI Act) dzieli systemy AI na 4 grupy: niedopuszczalnego ryzyka (ang. Unacceptable risk), wysokiego ryzyka (ang. High risk), ryzyka związanego z przejrzystością (ang. Limited risk) oraz minimalnego ryzyka lub jego braku (ang. Minimal risk). W tym artykule omawiam systemu niedopuszczalnego ryzyka, czyli zakazane systemy AI w UE.
Do systemów niedopuszczalnego ryzyka zalicza się te systemy, które stanowią „wyraźne zagrożenie dla bezpieczeństwa, źródeł utrzymania i praw ludzi” (źródło: Akt w sprawie sztucznej inteligencji).
Zakazane: social scoring, czyli ocena społecznościowa
Social scoring znany jest między innymi z Chin – występuje tam pod nazwą Social Credit System. Jest to krajowy system oceny obywateli, według którego obywatele są dzieleni na różne kategorie. W zależności od przynależności do danej kategorii, obywatel ma różne przywileje – a właściwie ma prawo do różnych, zdaniem Europejczyków: podstawowych, czynności. Na przykład do wzięcia kredytu, zakupu nieruchomości, wynajmu mieszkania, latania samolotem itd.
AI Act zakazuje wprowadzania do obrotu, oddawania do użytku lub wykorzystywania systemów AI do oceny lub klasyfikacji osób fizycznych lub grup osób w pewnym okresie czasu na podstawie ich zachowania społecznego lub znanych, wywnioskowanych lub przewidywanych cech osobowych, jeśli prowadzi to do negatywnego traktowania. W ten sposób AI Act chroni przed dyskryminacją spowodowaną błędami AI.
Warto raz jeszcze podkreślić, że przepisy uznają za zakazany wyłącznie taki social scoring, który prowadzi do negatywnego traktowania. W szczegółowych wytycznych to pojęcie zostaje doprecyzowane jako takie, które prowadzi do traktowania osób w kontekstach społecznych niezwiązanych z kontekstem, w którym wygenerowano dane (np. zakazany byłby system oceniający ryzyko nadużyć w zakresie świadczeń socjalnych na podstawie danych z mediów społecznościowych) albo do traktowania osób w sposób nieuzasadniony lub niewspółmierny do zachowania społecznego lub jego wagi (np. system oceniający wiarygodność mieszkańców na podstawie opóźnień w płatności podatków lokalnych).
Zakazane: przewidywanie popełnienia przestępstwa wyłącznie na podstawie profilowania lub oceny cech osobowości
W popularnej polskiej piosence Jamal śpiewał: „Jak to policeman przeszukuje mnie, przecież mam prawo nosić się tak, jak chcę”. AI też nie jest wolne od uprzedzeń. Na przykład Wyborcza opisywała sytuację, gdy algorytm częściej wskazywał osoby czarnoskóre jako potencjalnych przestępców. Ten zakaz w AI Act ma właśnie chronić przed sytuacjami, gdy algorytm uzna, na przykład, że nasz kolor skóry albo liczba tatuaży sugeruje większe prawdopodobieństwo popełnienia przestępstwa.
Co jednak ważne i podkreślone w szczegółowych wytycznych wyjątkiem od tego zakazu jest tworzenie systemów, których zadaniem jest wspieranie oceny ryzyka podejmowanej przez człowieka i w oparciu o obiektywne i weryfikowalne fakty bezpośrednio związane z dotychczasową działalnością przestępczą. Ponadto zakaz ten nie dotyczy prognozowania przestępczości opartego na lokalizacji, oceny ryzyka w odniesieniu do osób prawnych oraz prognozowania wykroczeń administracyjnych.
Zakaz: niekierowane pobieranie obrazów twarzy
Jeden z ulubionych pomysłów wywodzących się z seriali i filmów akcji: używanie AI w celu zbierania jak największej bazy twarzy z danych ogólnodostępnych w sieci i na nagraniach z kamer przemysłowych. AI Act wprost zakazuje tworzenia wytwarzania i wprowadzania do obrotu oprogramowania, którego celem jest tworzenie właśnie baz danych rozpoznawania twarzy.
Zakaz ten powstał, by ochronić nas przed naruszeniem prawa do prywatności i ochrony danych poprzez masowe gromadzenie danych biometrycznych. Wszyscy wiemy, że jesteśmy nagrywani w wielu sytuacjach społecznych. Miasta są monitorowane, tak samo teatry, kina, galerie handlowe.
Jednak UE nie chce, by nasze twarze były w masowych bazach danych, umożliwiających potem z łatwością rozpoznanie nas np. na ulicy za pomocą prostego algorytmu wyszukiwania i prześledzenie całej trasy z domu do pracy. Warto podkreślić, że według wytycznych źródłem obrazów twarzy może być Internet lub nagrania CCTV. Fakt, że dana osoba opublikowała swoje zdjęcia twarzy na platformie mediów społecznościowych, nie oznacza, że wyraziła zgodę na włączenie tych zdjęć do bazy danych rozpoznawania twarzy.
Zakazane: systemy do rozpoznawania emocji w pracy lub w szkole
Swego czasu głośno było o chińskim systemie kasków, które rozpoznawały samopoczucie pracownika. Czy potrafisz sobie wyobrazić sytuację, w której w trakcie pracy odwiedza Cię zatroskany przełożony i informuje, że system wykrył, że nie jesteś dziś dość szczęśliwy? Albo że system wykrył po tonie Twojego głosu, że jesteś zły? Systemy rozpoznawania emocji z użyciem AI byłyby już do tego zdolne, na szczęście AI Act takich praktyk również zakazuje.
Aby zakaz ten funkcjonował, musi zostać spełniona przesłanka dotycząca miejsca pracy lub instytucji edukacyjnej. Ponadto zakaz nie dotyczy systemów związanych z przyczynami medycznymi lub związanych z bezpieczeństwem. Wyłączeń jest więcej. Do dopuszczonych systemów zalicza się między innymi te, które potrafią wnioskować o zmęczeniu pilota lub kierowcy, czyli mają wpływ na bezpieczeństwo jego pasażerów. Jeśli zaś mowa o miejscu pracy, to w przypadku kontaktu z klientem system nie może oceniać pracownika, ale np. używanie systemów rozpoznawania głosu przez centra telefoniczne do śledzenia emocji klientów jest już dozwolone.
Zakazane: kategoryzacja osób na podstawie danych biometrycznych
AI Act zakazuje systemów kategoryzacji biometrycznej, które kategoryzują osoby fizyczne na podstawie ich danych biometrycznych w celu wywnioskowania o ich rasie, przekonaniach politycznych, przynależności do związków zawodowych, przekonaniach religijnych lub filozoficznych, życiu seksualnym lub orientacji seksualnej. Jest to kolejny z zakazów, którego celem jest ochrona człowieka przed dyskryminacją i nierównym traktowaniem. Zakaz dotyczy kategoryzacji poszczególnych jednostek. W przypadku wystąpienia grupy i wspólnych cech w grupie (a nie podziału na pojedyncze osoby) zakaz ten nie obowiązuje.
Zakazane: systemy służące do szkodliwej manipulacji i oszustwa
Poważny problem naszych czasów to dezinformacja, ale też brak łatwego dostępu do rzetelnej wiedzy. W czasach, w których coraz więcej treści jest generowanych przez sztuczną inteligencję, a przestępcy osiągają wyżyny w wymyślaniu oszustw – tworzenie systemów służących manipulacji jest bardzo poważnym problemem.
Już teraz, wykorzystując ogólnodostępne aplikacje (w tym aplikacje AI), z łatwością można tworzyć treści służące oszustwom, na przykład z łatwością można podszyć się pod kogoś innego za pomocą deep fake voice (więcej: Cześć tato, dzwonię cię okraść! – o technologiach deep fake voice). Gdyby AI Act nie zakazywał tworzenia systemów, których głównym celem jest ułatwianie manipulacji – trudno sobie nawet wyobrazić, do jakich sytuacji mogłoby to doprowadzić.
Zakazane: systemy szkodliwego wykorzystywania podatności (danych osób)
Podatnościami w tym przypadku nazywa się te cechy, które mogą prowadzić do gorszego rozumienia sytuacji, w jakiej się znaleźliśmyDokument ze szczegółowymi wytycznymi jasno wyszczególnia podatności. Mowa tu o:
- Wieku: Obejmuje zarówno dzieci, jak i osoby starsze. Celem jest zapobieganie wykorzystywaniu ograniczeń poznawczych i innych słabości, które czynią te grupy szczególnie podatnymi na manipulację;
- Niepełnosprawności: Obejmuje szeroki zakres długotrwałych fizycznych, psychicznych, intelektualnych i sensorycznych upośledzeń. Celem jest ochrona osób z niepełnosprawnościami przed szkodliwym wpływem i wyzyskiem;
- Sytuacji społeczno-ekonomiczna: Obejmuje osoby żyjące w skrajnym ubóstwie, mniejszości etniczne lub religijne, migrantów lub uchodźców…. Celem jest zapewnienie, że technologie AI nie utrwalają nierówności społecznych poprzez wykorzystywanie słabości tych osób.
Ważne jest to, że zakaz obejmuje wyłącznie te szkody, które możemy określić jako „znaczne”. AI Act nie zawiera definicji „znacznej szkody”. Należy ją rozumieć jako implikującą istotne negatywne skutki dla zdrowia fizycznego, psychicznego lub interesów finansowych i ekonomicznych osób i grup osób.
Zakazane: zdalna identyfikacja biometryczna w czasie rzeczywistym
Jak już wiesz, AI Act zakazuje tworzenia baz za pomocą naszych zdjęć pobranych z sieci lub kamer. Ale jeśli nawet nasze zdjęcie znajduje się w jakiejś bazie, to jednocześnie AI Act zakazuje rozpoznawania nas w czasie rzeczywistym za pomocą systemu zdalnej identyfikacji biometrycznej w czasie rzeczywistym (ang. RBI). Aby zakaz funkcjonował, oprócz wykorzystania systemu RBI i czasu rzeczywistego, musi być także spełniona przesłanka o użyciu tego systemu do egzekwowania prawa oraz wykorzystanie go w miejscu publicznie dostępnym. Istnieją jednak wyjątki, które sprawiają, że systemy RBI są dozwolone. Aby tak było, muszą być użyte w jednym z poniższych celów:
- Ukierunkowane poszukiwanie konkretnych ofiar uprowadzeń, handlu ludźmi lub wykorzystywania seksualnego;
- Zapobieganie konkretnym i bezpośrednim zagrożeniom dla życia lub bezpieczeństwa fizycznego osób lub autentycznemu i obecnemu lub autentycznemu i przewidywalnemu zagrożeniu atakiem terrorystycznym;
- Lokalizowanie i identyfikacja osób podejrzanych o popełnienie określonych poważnych przestępstw wymienionych w Załączniku II do AI Act.
AI Act i zakazane rodzaje sztucznej inteligencji
Unia Europejska wprowadziła AI Act, by chronić obywateli. Wymienione systemy zostały zakazane. Czy lista zakazanych systemów jest pełna, czy Twoim zdaniem czegoś na niej brakuje?
Źródło zdjęcia: Pixabay