Partner serwisu

Sąd nad sztuczną inteligencją. Kto powinien odpowiadać, jeśli coś pójdzie nie tak?

Unia Europejska już rozpisuje zasady etyczne dla twórców systemów sztucznych inteligencji. Muszą być ona na tyle ścisłe, żeby gwarantowały bezpieczeństwo ludziom, którzy będą korzystali z efektów działania AI oraz na tyle „inteligentne”, by odpowiedzialność twórców za ewentualne konsekwencje nie paraliżowała rozwoju sztucznej inteligencji – mówi w rozmowie z HomoDigital dr Gabriela Bar, radca prawna i partnerka zarządzająca w Kancelarii Szostek Bar i Partnerzy. Komputer sam nie stworzy dla siebie zasad etycznych. A jeśli je złamie czy do więzienia pójdzie ten komputer, czy twórca?

Dziś jeszcze sztuczna inteligencja (AI) nie jest zbyt rozwinięta. Zajmuje się wąskimi tematami, nie wpada w ich rozwiązywaniu w dylematy etyczne, zajmuje się konkretną robotą i „wypluwa” wyniki. Ale nie zawsze tak będzie. Ludzkość pracuje nad taką sztuczną inteligencją, która będzie multitematyczna, będzie działała i „myślała” jak człowiek. Będzie można jej „zadać” dowolny problem do rozwiązania, albo po prostu pytanie, a ona się z nim spróbuje uporać. Tylko według jakich zasad? No właśnie. Zasady te próbuje spisać już dziś Unia Europejska. I ustalić: kto będzie odpowiadał, jeśli sztuczna inteligencja zrobi coś głupiego albo złego? I w jaki sposób będzie odpowiadał? Czy niezależnie od winy? Bo przecież może być tak, że sztuczna inteligencja, owszem, podejmie złą decyzję, ale tylko dlatego, że dane, które pozwolono jej uzyskać przed jej podjęciem, były niepełne.

Zobacz również:

Myślicie, że to są bajki o żelaznym wilku i o dalekiej przyszłości? Jesteście w błędzie. Sztuczna inteligencja działa już w medycynie. W niedalekiej przyszłości będą w tej dziedzinie dwa systemy sztucznej inteligencji. Jeden będzie stosowany do diagnozowania chorób, a drugi do umawiania i optymalizowania wizyt pacjentów. Odpowiedzialność w przypadku błędów obu systemów musi być inna, bo i konsekwencje błędów są inne. O tym, kto i jak powinien odpowiadać za poczynania sztucznej inteligencji m.in. na salach sądowych rozmawiamy z mec. Gabrielą Bar, prawniczką specjalizującą się w zagadnieniach związanych z AI w tej dziedzinie życia.

Marcin Ledworowski: Czy etykę działania komputera z oprogramowaniem realizującym zadania sztucznej inteligencji da się zapisać w prawnych regulacjach? Po pierwsze komputer sam ich nie przeczyta. A po drugie nie będzie ich przestrzegał. I po trzecie: czy do więzienia pójdzie wtedy komputer, czy twórca?

Gabriela Bar: To bardzo ciekawe zagadnienie, nad którym niejednokrotnie się zastanawiałam. Nigdy wcześniej nie mieliśmy do czynienia z taką technologią jak sztuczna inteligencja, czyli porównywaną z ludzką, kompleksową. Właśnie przez tę „kompleksowość” sztucznej inteligencji, przez jej autonomię i przez szereg różnych zastosowań, w których jest implementowana, aspekty etyczne stały się bardzo ważne.

Nigdy wcześniej nie mieliśmy do czynienia z taką technologią jak sztuczna inteligencja, dlatego aspekty etyczne stały się bardzo ważne.

dr Gabriela Bar

Możemy rozróżnić dwa zasadnicze poziomy rozwoju sztucznej inteligencji: wąską sztuczną inteligencję (tzw. narrow AI) i ogólną sztuczną inteligencję (tzw. General AI lub AGI). W tym kontekście mówienie o tworzeniu etycznej sztucznej inteligencji na obecnym etapie jej rozwoju, to skrót myślowy. Dzisiejsza AI jest ograniczona do określonych zadań. Kiedy mówimy o wąskiej sztucznej inteligencji, to jest dość oczywistym, że zasady etyczne powinny być przestrzegane przez jej twórców: programistów, producentów, operatorów AI. A jeśli superinteligencja (AGI) kiedyś powstanie, to powinna mieć zaimplementowane zasady etyczne wewnątrz siebie i sama ich przestrzegać.

Gdy powstanie już ta super AI, która będzie jak człowiek, to czy ludzie nie powinni mieć nad nią kontroli? Jak tę kontrolę sprawować i w jaki sposób sprawić, aby etyka sztucznej inteligencji była przestrzegana?

Nadzór jest faktycznie jedną z wartości etycznych, które Unia Europejska bardzo mocno propaguje. Nadzór – to wartość etyczna, która powinna być zawsze przestrzegana przy tworzeniu systemu sztucznej inteligencji.

Z drugiej strony dostrzegam tu pewną sprzeczność. Chcemy mieć nadzór, chcemy mieć człowieka zaangażowanego w procesy decyzyjne sztucznej inteligencji. Z drugiej chcemy, żeby sztuczna inteligencja była coraz bardziej doskonała, autonomiczna, samodzielna i pomagała nam w wykonywaniu różnych zadań.

Human in The Loop, czyli jakie mamy prawa?

Myślę, że dojdziemy do punktu, w którym trzeba będzie sobie odpowiedzieć na pytanie: czy w rozwoju sztucznej inteligencji będziemy mieli HUMAN IN THE LOOP. HITL to wymóg udziału człowieka w decyzjach AI. Czy będziemy mieli ograniczoną w swojej autonomii sztuczną inteligencję?
Czy pójdziemy w autonomię i będziemy musieli zrezygnować z uczestnictwa i nadzoru nad sztuczną inteligencją?

Jaka dziś jest rola sztucznej inteligencji w branży prawniczej? O ile mi wiadomo – dość daleka od możliwości podejmowania jakichkolwiek istotnych decyzji.

Sztuczna inteligencja jest już wykorzystywana jako asystent sędziego. Pomocnik, który przeszukuje bazy danych, sprawdza, jak w podobnych sprawach już wyglądało orzecznictwo, przeszukuje przepisy itd.

W postępowaniach takich jak elektroniczne postępowanie upominawcze, które dotyczą określonych rodzajów roszczeń, już dzisiaj sztuczna inteligencja mogłaby zastąpić referendarzy sądowych. I za nich wydawać nakazy zapłaty. Na pewno byłoby to z korzyścią dla wymiaru sprawiedliwości, bo wszystko odbywałoby się szybciej, sprawniej i bez błędów. Sztuczna inteligencja byłaby też bardziej precyzyjna.

Pod warunkiem, że ten, kto ją zaprogramował, nie popełnił błędu…

To prawda. Uczestniczyłam ostatnio w dyskusji na temat tego, czy sztuczna inteligencja mogłaby wydawać decyzje administracyjne. Jak zwykle przy takich dyskusjach pojawił się argument, że nadzór człowieka jest potrzebny. Człowiek oprócz racjonalnego myślenia ma także empatię i bierze pod uwagę różne okoliczności „niemierzalne”. Z drugiej strony człowiek też popełnia błędy. Jest bardziej podatny na czynniki, które sprawiają, że może być stronniczy.

Sztuczna inteligencja nie jest oderwana od rzeczywistości. AI nam nie sfrunęła z nieba – została stworzona przez ludzi, którzy podlegają różnym ograniczeniom i popełniają błędy. Dlatego normy etyczne są bardzo ważne, tak samo, jak ich zaimplementowanie i przestrzeganie przez twórców sztucznej inteligencji. Powstała bardzo ciekawa teoria, pomysł, aby stworzyć tzw. Normware, czyli takie oprogramowanie sztucznej inteligencji, które miałoby zakodowane w języku określone normy etyczne. AI sama będzie dbała o ich wykonywanie. To jest chyba właściwy kierunek.

150 punktów rezolucji unijnej w sprawie AI. Co powinniśmy o niej wiedzieć?

Chciałbym porozmawiać o regulacjach Unii Europejskiej w zakresie AI. 20 października Parlament Europejski wydał trzy rezolucje. To, co mnie tknęło, kiedy zacząłem je czytać, to po pierwsze, że są ogromne jak na rezolucję. Jedna zawiera 150 punktów, a do tego jest preambuła, która ma dwadzieścia osiem punktów. Wygląda tak, jakby europosłowie oglądali Terminatora i przestraszyli się buntu maszyn. Co tak naprawdę w tych rezolucjach jest najważniejsze? Co powinniśmy zapamiętać albo czego się obawiać w związku z wprowadzeniem tych przepisów?

Rezolucja dotycząca etycznych aspektów sztucznej inteligencji, robotyki i powiązanych technologii zaskoczyła mnie. Parlament Europejski sugeruje przyjęcie rozporządzenia unijnego, które będzie dotyczyło wymogów etycznych dla sztucznej inteligencji. Czy możemy etykę spisać w paragrafach? Właśnie to Parlament Europejski proponuje: spiszmy zasady etyczne jako obowiązki prawne wynikające z rozporządzenia unijnego. Dokument, który będzie miał bezpośrednie zastosowanie we wszystkich państwach członkowskich, bez konieczności jego implementacji do porządków krajowych.

W szczególności istotne jest uregulowanie kwestii transparentności, przejrzystości i wyjaśnialności sztucznej inteligencji.  To jest mój konik: transparentność sztucznej inteligencji. To jeden z tych aspektów etycznych, które łatwo ubrać w ramy prawne. Drugim aspektem jest ochrona prywatności – w jeszcze szerszym zakresie niż zostało to zrobione przy okazji RODO. Proponowane jest zapewnienie każdemu prawa do decyzji podejmowanych przez człowieka, w szczególności w sprawach sądowych. Jeżeli człowiek będzie zgłaszał wniosek o rozpoznanie sprawy przez człowieka, to nie można go zmuszać do akceptacji decyzji sztucznej inteligencji.

Certyfikat zgodności etycznej i „10 przykazań”, czyli dekalog inteligencji

Co ciekawe Parlament Europejski proponuje wprowadzenie European Certificate of Ethical Compliance, czyli europejskiego certyfikatu zgodności z zasadami etycznymi. Taki certyfikat miałby być wydawany przez krajowy organ nadzoru do spraw sztucznej inteligencji. Oczywiście wymaga to najpierw utworzenia takiego organu, stworzenia całej oceny systemu zgodności z zasadami etycznymi.

Stworzyć taki organ nadzoru, w którym ludzie będą oceniać system sztucznej inteligencji i wydawać certyfikat stwierdzający zgodność z zasadami etycznymi – to jest ogromne wyzwanie. A najpierw trzeba będzie sformułować bardzo precyzyjne kryteria zgodności z tymi zasadami etycznymi.

No właśnie, a kto ma ustalać jakie zasady etyczne powinna mieć AI?

To jest istotne pytanie! Przecież wyznajemy inne wartości w Europie, trochę inne wartości w Stanach Zjednoczonych, a jeszcze inne w Chinach. Obserwując to, co się dzieje w dziedzinie zasad etycznych dla sztucznej inteligencji, można zauważyć, że zarówno duże prywatne firmy, rządy różnych państw, jak i organizacje typu Unia Europejska, formułują w miarę zbliżone do siebie i neutralne politycznie oraz światopoglądowo zasady etyczne. Unia Europejska stawia na nadzór człowieka nad AI, czyli to o czym już rozmawialiśmy.

Ważna jest techniczna solidność, bezpieczeństwo, ochrona prywatności i danych osobowych oraz odpowiedzialne zarządzanie nimi, czyli mówiąc ogólnie: antropocentryczne podejście, które stawia człowieka w centrum. A także rozliczalność, traceability – nie wiem jak to przetłumaczyć nawet – czyli możliwość śledzenia procesu działania i podejmowania decyzji przez sztuczną inteligencję oraz jej przejrzystość.

Ja bym dodała także explainability, czyli wyjaśnialność. Rozumianą w taki sposób, że niekoniecznie musimy otwierać tego „black boxa”, bo to jest temat rzeka czy jego da się w ogóle otworzyć i wytłumaczyć. Ja mówię, że nie trzeba go otwierać, ale trzeba pokazać człowiekowi, w jaki sposób sztuczna inteligencja podjęła decyzję dotyczącą jego osoby i jego sprawy. Zwłaszcza w takich wrażliwych sektorach, jak służba zdrowia, wymiar sprawiedliwości, czy nawet transport. Bo jeśli dojdzie do zdarzenia drogowego z udziałem autonomicznego auta, w którym ktoś zginie lub poniesie poważne szkody, to istotne jest, żeby wyjaśnić, dlaczego tak się stało.

AI autonomous drive
AI autonomous drive

Czy AI będzie „subiektywna”? I co wtedy?

Przypomina mi to dyskusję o motywach działań ludzi. Ludzie, którzy funkcjonują w powiązaniu ze swoimi emocjami podejmują decyzje nie zawsze racjonalne, ale dlatego, że akurat na taką decyzję mieli ochotę. Regulacje, które tworzy Unia będą dobre dla narrow AI, czyli tej wąskiej, „dziedzinowej” sztucznej inteligencji. Ale co będzie gdy stworzymy super inteligencję, która będzie działać tak, jak człowiek? Czy jeśli taka AI podejmie jakąś decyzję w emocjach, to trzeba będzie ją posadzić do więzienia, skasować albo zresetować?

To jest zagadnienie, które bardzo mnie interesuje. Jeśli już będziemy mieć ogólną sztuczną inteligencję, to po pierwsze rodzi się pytanie jaka ona będzie? Czy będzie miała emocje, czy może, tak jak w książce Stanisława Lema „Golem XIV”, będzie to twór kompletnie racjonalny, pozbawiony słabości, jakimi są ludzkie uczucia?

A jeśli to będzie twór, który jednak będzie odczuwał, nawet jeżeli w sposób inny niż my, ale będzie miał doznania subiektywne? Być może nawet samoświadomość? Ja jestem zwolenniczką tego, żeby takiej sztucznej inteligencji przyznać podmiotowość prawną. Ale to już jest wątek na zupełnie inną dyskusję, bo faktycznie wtedy trudno będzie stosować do tego rodzaju sztucznej inteligencji zasady stworzone dla tej wąskiej sztucznej inteligencji. To będzie taka różnica jak między grą w węża, która była 20 lat temu na komórkach, a Call of Duty w dzisiejszym wydaniu. Albo jeszcze większa.

A jak to jest z  odpowiedzialnością cywilną za błędy i wypadki? Kto będzie za to odpowiadać? Programista, wydawca, Google albo Apple?

Parlament Europejski podszedł do tego tematu bardzo racjonalnie i z punktu widzenia prawnika projekt rozporządzenia, który został przedstawiony jako załącznik do rezolucji, bardzo mi się podoba. Parlament stwierdził, że na obecnym etapie, przyznawanie sztucznej inteligencji osobowości prawnej, nie wchodzi w grę.

Musimy patrzeć na tych, których nazywamy operatorami sztucznej inteligencji. A pojęcie operatora systemu AI jest szerokie, obejmuje zarówno osoby fizyczne, jak i osoby prawne oraz inne podmioty korporacyjne, które sprawują pewną kontrolę nad ryzykiem związanym z użyciem sztucznej inteligencji, uzyskując z tego tytułu korzyści. Więc to mogą być np. producenci i sprzedawcy, ale także użytkownicy w rozumieniu firm, które korzystają z systemów sztucznej inteligencji dla własnych korzyści. Będą w tej kwestii jednolite przepisy w całej Unii.

Dużo głosów eksperckich jest za wprowadzeniem odpowiedzialności na zasadzie ryzyka za system sztucznej inteligencji. Były też głosy, że bardzo surowa odpowiedzialność zahamuje rozwój sztucznej inteligencji w Unii Europejskiej. Jest to ważne bo Unia ma ambitne plany bycia liderem w dziedzinie AI.

Sztuczna inteligencja wysokiego ryzyka. Czym ryzykują jej twórcy?

Propozycja jest taka, aby operatorzy systemów sztucznej inteligencji odpowiadali za działania na zasadzie strict liability, czyli odpowiedzialność na zasadzie ryzyka, ale tylko w odniesieniu do sztucznej inteligencji wysokiego ryzyka.

Przykładowo systemy sztucznej inteligencji w ochronie zdrowia będą dwa. Jeden będzie stosowany do diagnozowania raka (high risk AI), a drugi do umawiania wizyt pacjentów (low risk AI). Odpowiedzialność będzie wtedy na zasadzie winy – trzeba będzie na ogólnych zasadach wykazać, jak doszło do szkody. Producent i operator systemów sztucznej inteligencji musi się z tą autonomią liczyć i brać na siebie skutki jej działania. Nie będzie jednak odpowiadał za sytuację w której, w wyniku cyberataku, doszło do przejęcia kontroli nad sztuczną inteligencją.

Parlament podkreśla też bardzo dużą rolę danych w kwestii oceny odpowiedzialności. Jeżeli coś się złego wydarzy w związku z działaniem systemu sztucznej inteligencji, to znaczenie będzie miało to, na jakich danych operowała. Kolejna ważna rzecz to obowiązkowe ubezpieczenia dla systemów, które zostaną zakwalifikowane jako te wysokiego ryzyka. Rozporządzenie proponuje nawet maksymalne kwoty odszkodowania i powiązanie z nimi sumy ubezpieczenia. W przypadku śmierci lub szkody wyrządzonej np. na zdrowiu suma wyniesie maksymalnie 2 miliony euro. W przypadku innych szkód – 1 milion euro.

Myślę, że jest to bardzo dobry kierunek. Parlament wskazał, że Komisja powinna jako załącznik do rozporządzenia wskazać listę systemów AI, które będą zakwalifikowane jako systemy wysokiego ryzyka. Z drugiej strony sugeruje podejście, które jest nazywane fast track approach, tzw. szybkiej ścieżki, która pozwoli na modyfikację tej listy. Prawo tworzy się długo, a technologia się zmienia bardzo szybko.

Rzecz o kobietach w technologii – Women in AI

Dlaczego tak mało kobiet pracuje w zawodach związanych z nowymi technologiami, robotyzacją, czy IT?

Gdy zaczynałam 20 lat temu karierę zawodową jako prawnik zajmujący się nowymi technologiami, to na konferencjach naukowych, w których brałam udział, kobiety były prawdziwą rzadkością. Ale rola kobiet w technologiach się zmienia i jest nas coraz więcej. Natomiast nie da się ukryć, że ta zmiana zachodzi dosyć powoli.

Jestem przeciwniczką parytetów. Kobiety od najmłodszych lat muszą mieć szansę rozwoju w technologiach. I to w zupełności wystarczy

dr Gabriela Bar

Bardzo dużym problemem jest to, że dziewczynki, które nawet interesują się technologiami, są ukierunkowywane od najmłodszych lat na inne zajęcia. Uważa się, że są mniej predysponowane do wykonywania zadań o charakterze technicznym czy technologicznym. Często im się wmawia, że się do tego nie nadają. Pokłosiem tego dużo mniejszy udział dziewczyn, kobiet w nowych technologiach.

Ale mimo tego jestem przeciwniczką parytetów. Nie uważam, że kobiety powinny być promowane dlatego, że są kobietami. Wystarczy, że ich kompetencje będą sprawiedliwie oceniane. Zauważam mnóstwo fantastycznych i kompetentnych kobiet w nowych technologiach, które radzą sobie bez parytetów.

Jesteś od niedawna członkiem organizacji Women in AI. Co to za przedsięwzięcie?

To organizacja non-profit z siedzibą we Francji, która zrzesza kobiety z całego świata zajmujące się sztuczną inteligencją z punktu widzenia prawnego, filozoficznego, czy socjologicznego, ale także typowo technicznego. Chodzi o wymianę poglądów, doświadczeń.

Ada Lovelace, czyli pierwowzór kobiety-programistki

Przykładem kobiety, która zajmowała się nowymi technologiami już w XIX wieku była Ada Lovelace, która była córką słynnego poety Byrona. Chociaż trudno powiedzieć o nowych technologiach XIX wieku w dzisiejszym rozumieniu, to Ada wbrew właśnie takiemu postrzeganiu kobiety i roli zwłaszcza w tamtych czasach zajęła się matematyką. Jest uważana za autorkę pierwszego algorytmu napisanego z myślą o maszynie liczącej. Chociaż i tutaj dostrzegamy mnóstwo takiego niechętnego podejścia wielu historyków do niej. Niektórzy twierdzą, że Ada wcale nie napisała tego algorytmu. I że była tylko asystentką matematyka, który te algorytmy stworzył.

Historia Ady mnie zawsze fascynowała – bo nazwano ją pierwszą programistką. W latach 90-tych XX wieku w Polsce programistek było bardzo mało – to były dosłownie pojedyncze osoby na tysiące. Zdarzały się w IT kobiety w innych rolach. Wdrażały różnego rodzaju aplikacje, testowały. Ale w programowaniu byli sami mężczyźni. Teraz w IT kobiet jest dużo więcej.

Zgadzam się, ten stan się zmienia i to jest optymistyczne. Mamy sporo fajnych dziewczyn w kraju, które się zajmują programowaniem, a przy tym tworzą różne organizacje, stowarzyszenia, wspierają się wzajemnie. Mamy naszą panią profesor Aleksandrę Przegalińską, znaną praktycznie na całym świecie jako filozofka i specjalistka od sztucznej inteligencji. Mam nadzieję, że ten udział kobiet w nowych technologiach będzie rósł. Nie chodzi w moim przekonaniu o jakąś specjalną promocję kobiet, tylko o pokazywanie dobrych przykładów i zachęcanie kobiet: „możecie robić to co najmniej równie dobrze, jak robią to mężczyźni”.

Przy okazji też warto zaznaczyć, że wielu w dużych firmach, w korporacjach zazwyczaj jest polityka różnorodności (diversity) i ten problem jest dużo mniejszy.  Kolega z korporacji ostatnio mnie pytał: „Naprawdę? Macie jakiś problem? U mnie w firmie to nie ma w ogóle opcji, żeby kobiety, dziewczyny były w jakikolwiek sposób dyskryminowane, ponieważ mamy bardzo mocne zasady korporacyjne w zakresie promowania różnorodności”.

Zmiana pokoleniowa

Jest taki stereotyp faceta programisty utarty choćby w memach: gości w wyciągniętych swetrach albo w koszulach w kratę. Nerdy w okularach, bez kontaktu ze światem. Nie wyobrażam sobie w takim memicznym stereotypie żadnej kobiety.

Być może za krótko funkcjonujemy jeszcze w tym technologicznym środowisku, żeby powstawały o nas memy.

Najważniejsza jest zmiana podejścia od dołu, czyli od tego, jak wychowujemy, traktujemy dziewczynki od małego, a nie dopiero gdy później staramy się im coś wynagrodzić. Mam 43 lata i można powiedzieć, że jestem middle age. Chociaż byłam wychowywana w dość otwartej rodzinie, to mimo wszystko ten podział był taki, że dziewczynce czegoś nie wypada, że dziewczynka powinna to, czy nie powinna tamtego. Mój brat nigdy tego nie usłyszał! Myślę, że jako społeczeństwo potrzebujemy czasu, żeby zmienić nasze podejście.

Ale z drugiej strony, dziewczyny prawnicy są nawet w filmach hollywoodzkich promowane jako te najtwardsze, najsilniejsze. Panie mecenas zaciekle walczą na filmowych salach sądowych. Społeczeństwo już przywykło, do kobiet prawników. Ale do tego, żeby kobieta zajmowała się naukami matematycznymi czy programowaniem – to chyba jeszcze nie

Do niedawna część moich klientów, z którymi się spotkałam na gruncie zawodowym, była zaskoczona moją znajomością terminów technicznych. Byli zaskoczeni tym, że zanim udzielę porady, napiszę umowę albo regulamin, to chcę zobaczyć jak działa system informatyczny. Chcę mieć dostęp testowy, że chcę „przeklikać” jak coś działa i dlaczego tak działa.

Ostatnie lata pokazały jednak, że na rynek weszli młodzi ludzie: programiści, producenci, dostawcy różnych rozwiązań informatycznych, rozwiązań związanych ze sztuczną inteligencją. I oni już mają inne podejście do udziału kobiet w technologii.

[całość rozmowy można wysłuchać na naszym podcaście]

dr Gabriela Bar

Specjalizuje się w prawie cywilnym ze szczególnym uwzględnieniem prawa nowych technologii (środki komunikacji elektronicznej, handel elektroniczny), prawie własności intelektualnej) oraz w prawie handlowym. Obsługuje przedsiębiorstwa internetowe, wykonuje audyty prawne serwisów internetowych i systemów informatycznych (także w języku angielskim). Jest specjalistką z zakresu ochrony danych osobowych i bezpieczeństwa prawnego informacji. Radca prawny, doktor nauk prawnych ze specjalnością prawo cywilne;

Ilustracja w treści Pexels – Meggy Rivera
, Ruiyang Zhang

Subscribe
Powiadom o
0 komentarzy
Inline Feedbacks
View all comments
Najnowsze wpisy naszych autorów Wszyscy autorzy
Przyszłość jest tutaj

Podaj swój adres email i odbieraj najświeższe informacje o nowych technologiach i nie tylko.

email-iconfacebooktwitteryoutubelinkedin instagram whatsup
Skip to content