Partnerem strategicznym Homodigital.pl jest
3 października 2023

Jak walczyć z wykorzystywaniem seksualnym dzieci? Zdjęcia i filmy trafiają do sieci. UE chce z tym skończyć. A co z prywatnością?

Co sekundę w internecie udostępniane są co najmniej dwa zdjęcia lub filmy przedstawiające wykorzystywanie seksualne dzieci. Nowe przepisy unijne mają to zmienić, a jednocześnie wytyczyć zasady dla branży technologicznej, by eliminować z sieci takie przestępcze materiały i by łatwiej było ścigać winnych. Aż trudno uwierzyć, że w XXI wieku nie potrafimy sobie z tym poradzić, ale to może być jedno z nowych zastosowań dla sztucznej inteligencji

Co sekundę w internecie udostępniane są co najmniej dwa zdjęcia lub filmy przedstawiające wykorzystywanie seksualne dzieci. Nowe przepisy unijne mają to zmienić, a jednocześnie wytyczyć zasady dla branży technologicznej, by eliminować z sieci takie przestępcze materiały i by łatwiej było ścigać winnych. Aż trudno uwierzyć, że w XXI wieku nie potrafimy sobie z tym poradzić, ale to może być jedno z nowych zastosowań dla sztucznej inteligencji

Unia Europejska zmierza do określenia działań, jakie firmy technologiczne powinny podejmować w celu zwalczania CSAM (z ang. Children Sexual Abuse Material), czyli publikowania w sieci przeważnie w celach komercyjnych nagrań dotyczących seksualnego wykorzystywania lub molestowania dzieci.

To jeden ze stosunkowo nielicznych punktów w agendzie Unii Europejskiej, na który jest zgoda właściwie we wszystkich krajach i we wszystkich unijnych społeczeństwach.  Europejczycy zdecydowanie popierają projekt rozporządzenia UE – obecnie będący w fazie konsultacji za jego wprowadzeniem opowiada się obecnie aż 78% ankietowanych przez Eurobarometr Europejczyków. W Polsce poparcie dla rozporządzenia wynosi  71%

Petycję w sprawie wejścia przepisów w życie można podpisać na stronie kampanii #childsafetyon https://pl.childsafetyineurope.com/podpisz-petycje/. Nowe przepisy mogą realnie pomóc w wykrywaniu przypadków niegodziwego traktowania dzieci, ułatwić zgłaszanie takich przypadków i zapobiegać im. Oczywiście: jak zwykle w takich przypadkach pojawiają się wątpliwości, czy przy okazji śledzenia przestępstw, nowo wdrażane mechanizmy nie zostaną wykorzystane do naruszania prywatności internautów.

W grę wchodzi bowiem monitorowanie treści wymienianych przez ludzi za pomocą platform społecznościowych i komunikatorów online. Nie wiadomo jeszcze jak by to miało działać zwłaszcza, że np. część komunikatorów zapewnia swoim użytkownikom szyfrowanie komunikatów ale szczegóły dotyczące potencjalnych narzędzi nie zostały jeszcze ogłoszone. W ramach konsultacji na razie testowana jest gotowość obywateli Unii Europejskiej do poddania swojej aktywności w sieci jakiejś formie monitoringu

Eurobarometr sprawdził nastawienie obywateli krajów UE do tego problemu. Łącznie 96% respondentów stwierdziło, że możliwość wykrywania nadużyć wobec dzieci jest ważniejsza lub równie ważna jak prawo do prywatności w internecie. 89% respondentów „zdecydowanie” lub „raczej” popiera korzystanie z narzędzi, które automatycznie wykrywają te obrazy i filmy przedstawiające seksualne wykorzystywanie dzieci, które są już znane policji, w celu zidentyfikowania, gdzie owe obrazy i filmy są ponownie udostępniane w internecie. W Polsce jest to 86% respondentów.

Eurobarometr zapytał o wykorzystanie do wykrywania CSAM sztucznej inteligencji (AI) 85% respondentów w całej UE, a 83% w Polsce „zdecydowanie popiera” lub „raczej popiera” korzystanie z tych narzędzi, nawet jeśli mogą one ingerować w prywatność użytkowników, do wykrywania nowych zdjęć i filmów przedstawiających wykorzystywanie seksualne udostępnianych online. Bardzo ciekawy jest zwłaszcza wysoki odsetek pozytywnych odpowiedzi w Polsce, gdzie każda próba ograniczania prywatności wzbudza niemałe protesty.

Nowe dane z raportu Internet Watch Foundation z 2022 r. wykazały, że w ubiegłym roku liczba przypadków wykorzystywania seksualnego dzieci była wyższa niż kiedykolwiek wcześniej, a 30% ofiar to dzieci w wieku poniżej 10 lat. Dane te dotyczą jedynie ułamka problemu, czyli tylko przestępstw sfotografowanych lub nagranych i udostępnionych w sieci, a następnie zgłoszonych IWF. Aż 60% wszystkich materiałów zgłoszonych IWF w ubiegłym roku było hostowanych w państwach unijnych.

3 sierpnia 2024 r. utracą ważność przepisy UE, które umożliwiają dostawcom usług internetowych dobrowolne wykrywanie i zgłaszanie niegodziwego traktowania dzieci w celach seksualnych w internecie oraz usuwanie materiałów. Jeśli te przepisy utracą ważność, firmy technologiczne nie będą już w stanie wykrywać, zgłaszać ani usuwać nielegalnych treści w usługach komunikacyjnych, które są obecnie najczęściej wykorzystywanym kanałem rozpowszechniania materiałów CSAM w zeszłym roku pochodziło z nich aż 80% zgłoszeń.

Na razie wygląda na to, iż mamy do czynienia z dość powszechną zgodą mieszkańców Starego Kontynentu na pozbycie się części prywatności w zamian za ochronę dzieci w sieci. Pytanie tylko jak będzie to wyglądało, gdy na stole pojawią się konkretne rozwiązania, z których będzie wynikała taka lub inna forma wglądu w nasze posty w mediach społecznościowych lub rozmowy w komunikatorach.

Prawdopodobnie moment podania propozycji konkretnych rozwiązań może oznaczać spadek poparcia społecznego dla nowych rozwiązań. Pytanie tylko jak duży i czy Unia Europejska zadba o to, by rozwiązania wykluczały możliwość inwigilacji powodowanej innymi czynnikami niż ochroną dobra dzieci.

Wykorzystywanie seksualne dzieci i publikowanie tego w sieci to jedno z najcięższych przestępstw. Będzie bardzo trudno pogodzić rozwiązania mające na celu śledzenie tego z unikaniem zarzutów o inwigilację. I rzeczywiście, można mieć wątpliwości czy to jest w ogóle do zrobienia. Wkrótce się przekonamy.

Czytaj: Nasz hejt powszedni. Jak z nim walczyć?

zdjęcie tytułowe: Ben Wicks/Unsplash

Home Strona główna Subiektywnie o finansach
Skip to content email-icon