Эксперты: материалы ИИ с детьми частично легальны в Польше

upday.com 2 часы назад
Wygenerowane przez AI materiały z rozebranymi dziećmi są w Polsce legalne, jeżeli nie przedstawiają czynności seksualnych; należy pilnie zmienić to prawo - alarmują w rozmowie z PAP biegli sądowi Amanda Krać-Batyra i Tomasz Sidor. PAP

Zgodnie z polskim prawem karnym rozpowszechnianie i posiadanie treści pornograficznych z udziałem osoby małoletniej podlega karze więzienia od trzech miesięcy do pięciu lat. Problem w tym, iż przepisy dotyczą tylko materiałów z prawdziwymi, żywymi dziećmi. Materiały wytworzone przez sztuczną inteligencję, na których widoczne jest realistycznie rozebrane dziecko bez czynności seksualnej, nie są w Polsce karane. Eksperci alarmują, iż prawo wymaga pilnej zmiany.

Zgodnie z artykułem 202 Kodeksu karnego rozpowszechnianie i posiadanie treści pornograficznych z udziałem osoby małoletniej podlega karze więzienia od trzech miesięcy do pięciu lat. Chodzi o materiały z prawdziwymi, żywymi dziećmi, niezależnie od tego, czy jest na nich ukazana czynność seksualna.

Natomiast posiadanie i rozpowszechnianie materiałów wytworzonych czy przetworzonych przez sztuczną inteligencję, na których widoczne jest realistycznie rozebrane dziecko, czy też ukazane w stylu bajkowym, ale bez czynności seksualnej, nie jest w Polsce karane - wskazała w rozmowie z PAP biegła z zakresu antropologii sądowej Amanda Krać-Batyra.

Luki w polskim prawie

Podobnie jest w przypadku materiałów z dziećmi ubranymi w sposób seksualizujący, które nie ukazują jednak rzeczywistych czynności seksualnych ani prawdziwych, żyjących dzieci. W Polsce legalne są też opowieści, czyli słowny opis czynności seksualnych wobec dziecka oraz nagrania audio w tym zakresie - dodał w rozmowie z PAP biegły z zakresu informatyki śledczej Tomasz Sidor.

Problemem jest definicja zawarta w artykule 202 Kodeksu karnego, który penalizuje produkcję, posiadanie i rozpowszechnianie materiałów "przedstawiających wytworzony albo przetworzony wizerunek małoletniego uczestniczącego w czynności seksualnej". Musimy pilnie zmienić to prawo - alarmują biegli.

Prace nad zmianą przepisów

Prace nad nową treścią artykułu 202 kk już trwają, postulują je głównie środowiska pozarządowe oraz część instytucji publicznych, związanych z ochroną dzieci. Główny postulat to zastąpienie pojęcia "treści pornograficzne przedstawiające wytworzony albo przetworzony wizerunek małoletniego uczestniczącego w czynności seksualnej" terminem przyjętym w prawodawstwie unijnym, czyli "materiały ukazujące seksualne wykorzystanie dziecka" - wskazała ekspertka.

Słowo "pornografia" nie powinno być używane w przepisach odnoszących się do dziecka, bo pornografia to legalny biznes rozrywkowy skierowany dla dorosłych - zaznaczyła Krać-Batyra. Część państw UE, w tym Słowenia, Belgia czy Niemcy podchodzą bardziej restrykcyjnie do przepisów związanych z materiałami CSAM.

Problem z międzynarodowym ściganiem

Tego typu przestępstwa przekraczają granice państw. Tymczasem w jednym kraju pewne zachowania są penalizowane, a w innym legalne - mówił biegły Tomasz Sidor. W związku z tym występuje poważny problem z międzynarodowym ściganiem przestępstw popełnianych przez osoby z zaburzonymi preferencjami seksualnymi.

Generowanie CSAM jest możliwe przez modele AI ogólnodostępne w internecie, co stanowi poważne wyzwanie. Są też modele, które można uruchomić na swoim urządzeniu i przygotować tak, by omijały filtry nakładane przez producentów. Nie potrzeba do tego specjalnego sprzętu - często wystarczy laptop z dedykowaną kartą graficzną.

Dostęp do nielegalnych narzędzi

Istnieją również modele AI specjalnie trenowane w celu "rozbierania" przedstawionych na zdjęciach dzieci lub generowania materiałów CSAM. Do takich narzędzi dostęp na zasadzie subskrypcji cyberprzestępcy sprzedają w Darknecie.

Praca nad materiałami CSAM, których jeden podejrzany potrafi mieć na urządzeniu tysiące, niesie ze sobą ogromne obciążenie psychiczne dla biegłych, którzy często są przeciążeni albo wypaleni zawodowo - podkreśliła Amanda Krać-Batyra.

Problemy z wyrokami skazującymi

Zawsze wskazuję materiały, które według mnie są podejrzane, choćby jeżeli w świetle polskiego prawa ich posiadanie nie jest zabronione. Jednak rzadko kiedy w takich sprawach zapadają wyroki skazujące - wspomina ekspertka. Kiedyś zgłosiła, iż podejrzany miał na urządzeniu setki reklamowych zdjęć niemowlaków w śpioszkach, które pobrał ze stron sprzedających ubranka. Prokurator zadzwonił do niej z pretensjami, iż przecież tam nie ma nic nielegalnego.

Część biegłych korzysta ze sztucznej inteligencji, która ma pomóc we wstępnym wytypowaniu CSAM, jednak i tu pojawiają się problemy. Zdarzają się "fałszywe pozytywy", czyli sytuacje, w których AI oznacza jako podejrzane materiały w ogóle nie związane z dziećmi, np. zdjęcia, na których były pierogi ze śmietaną, pyzy ze skwarkami, czy borsuk - mówiła biegła.

Wyzwania technologiczne

Zdarzają się też tzw. "fałszywe negatywy", czyli sytuacje, w których AI nie wykrywa CSAM. jeżeli źle zakwalifikowany materiał trafi do sądu, będzie go bardzo łatwo podważyć. A biegły odpowiada karnie za złożenie fałszywej opinii, choćby jeżeli zrobi to nieumyślnie - zaznaczyła Krać-Batyra.

Aby narzędzia AI mogły skutecznie pomagać w wykrywaniu CSAM, powinny być specjalnie trenowane w tym celu oraz wyjaśnialne, co oznacza, iż dostępna jest informacja, dlaczego algorytm podjął taką, a nie inną decyzję. Jednak twórcy AI strzegą tajemnic związanych z algorytmami. Nie są też chętni do udzielania informacji ani udostępniania narzędzi do wykrywania materiałów wygenerowanych przez AI - dodał Tomasz Sidor.

(PAP) Uwaga: Ten artykuł został zredagowany przy pomocy Sztucznej Inteligencji.

Читать всю статью