W 2017 r. wśród zgłoszeń, które wpłynęły do Zespołu, eksperci potwierdzili 2459 incydentów, związanych z rozpowszechnianiem materiałów przedstawiających seksualne wykorzystywanie dzieci, 1339 związane z publikację legalnych obrazów osób nieletnich w seksualnym kontekście – to najliczniejsza grupa zgłoszeń. Łącznie w 2017 roku Dyżurnet.pl przeanalizował 13 962 incydenty. Eksperci działającego w NASK Państwowym Instytucie Badawczym zespołu ds. nielegalnych i szkodliwych treści w internecie
Dyżurnet.pl oceniają, że chociaż wiele wyzwań pojawia się wraz z nowymi zjawiskami w internecie, to intuicja i wyczucie często podpowiadają użytkownikom właściwą reakcję. Najważniejsze jest więc, aby wobec negatywnych zjawisk nie pozostawać biernym.
– NASK od lat podejmuje wiele inicjatyw na rzecz budowania bezpiecznego internetu. Jedną z nich jest działalność Zespołu Dyżurnet.pl, który jako jedyny w Polsce przyjmuje anonimowe informacje o dystrybucji potencjalnie nielegalnych treści, w szczególności tych dotyczących seksualnego wykorzystywania małoletnich – mówi dr inż. Wojciech Kamieniecki, dyrektor NASK. -Jak pokazuje kilkunastoletnie doświadczenie zespołu zdjęcia i filmy, ukazujące krzywdę dzieci mobilizują do działań wszystkich – użytkowników internetu, opiekunów i edukatorów, administratorów, przedstawicieli organów ścigania i wymiaru sprawiedliwości. Zaangażowanie tak wielu osób i instytucji przyczynia się do zwiększania ochrony dzieci i młodzieży – podkreśla dyrektor NASK.
Przestępstwa wobec dzieci
Jak mówi Martyna Różycka, kierownik zespołu Dyżurnet.pl, materiały, które potocznie nazywane są pornografią dziecięcą, to w rzeczywistości dokumentacja przestępstwa, polegającego na zgwałceniu osoby nieletniej. – Termin «pornografia» odnosić się może do materiałów osób dorosłych, dobrowolnie zaangażowanych w seksualne akty oraz produkcję materiałów. Tymczasem zdjęcia i filmy, na których widać przemoc seksualną wobec dzieci, to zupełnie inna kategoria materiałów. Są elementem przestępstwa, powstały w trakcie jego popełniania, a ich ciągła dystrybucja w internecie stanowi trudne do wyobrażenia brzemię dla ofiar. Właściwym określeniem, używanym przez organy ścigania i instytucje, działające na rzecz bezpieczeństwa w sieci jest skrót CSAM (ang. child sexual abuse materials) – materiały przedstawiające seksualne wykorzystywanie dzieci) – wyjaśnia kierownik Dyżurnet.pl. Zespół podkreśla, że zgodnie z hasłem zaproponowanym przez INTERPOL: serious crime, serious definition – poważne przestępstwo wymaga poważnej definicji i dlatego w przestrzeni publicznej właśnie określenie CSAM powinno być używane w odniesieniu do tego typu treści.
Internauci zdają sobie sprawę, że rozpowszechnianie takich materiałów jest niewłaściwe i należy mu przeciwdziałać. Niezmiennie najliczniejszą grupę zgłoszeń przesłanych do Dyżurnet.pl stanowią treści potencjalnie przedstawiające seksualne wykorzystanie dziecka. W roku 2017 stanowiły one 83 proc. ogólnej liczby zgłoszeń. Spośród nich eksperci Dyżurnet.pl potwierdzili CSAM w 2184 przypadkach. Zespół zawsze podejmuje działania na rzecz usunięcia nielegalnych treści z internetu, powiadamia organy ścigania lub współpracujące zespoły w innych krajach.
Informacja o najbardziej drastycznych materiałach przekazywana jest bezpośrednio do bazy ICSE (International Child Sexual Exploitation1), umożliwiając podjęcie działań nie tylko przeciwko dystrybucji, ale przede wszystkim w celu identyfikacji zarówno ofiar, jaki i sprawcy.
Baza ICCAM wprowadza wyższy standard raportowania pracy analityków treści i podjętych interwencji. Jedynym zespołem w Polsce korzystającym i przekazującym informacje za jej pośrednictwem jest Dyżurnet.pl. Posiada innowacyjne rozwiązania związane z analizą i klasyfikacją plików foto i wideo. Materiały klasyfikowane są ze względu na cechy ofiary, takie jak płeć oraz przybliżony wiek. W dalszej analizie funkcjonariusze Interpolu próbują ustalić miejsce popełnienia przestępstwa. W roku 2017 eksperci Dyżurnet.pl wprowadzili do bazy 2180 raportów dotyczących adresów URL zawierających nielegalne treści. Pod tymi adresami znajdowało się łącznie 6068 plików foto i wideo zaklasyfikowanych jako treść przedstawiająca seksualne wykorzystanie dziecka.
„Nie” dla nadużyć wobec dzieci
Wśród zgłoszeń otrzymanych od internautów najczęściej eksperci Dyżurnet.pl identyfikują materiały, związane z publikacją obrazów osób nieletnich w seksualnym kontekście. Obrazy te nie prezentują wprost czynności seksualnych ani intymnych części ciała, natomiast portretują dzieci ubrane, umalowane i upozowane w sposób erotyczny. Eksperci Dyżurnet.pl potwierdzili 1339 takich przypadków wśród zgłoszonych adresów. – Tego typu materiały są legalne w myśl polskiego prawa, jednak internauci słusznie wyczuwają, że nie powinny być rozpowszechniane. Są krzywdzące wobec dziecka i każde ukazanie dziecka w seksualnym kontekście jest nadużyciem” – podkreśla Martyna Różycka. Podobnie jak w przypadku CSAM, apeluje o stosowanie odpowiedniej terminologii. W języku angielskim treści tego typu określane są skrótem CSEM (child sexual exploitation material). Polski właściwy termin to materiał prezentujący dziecko w seksualnym kontekście. „Chociaż według prawa różnica między CSAM i CSEM jest bardzo wyraźna i jedne materiały są nielegalne, a drugie legalne, to statystyki zgłoszeń pokazują, że przeciętny internauta uznaje CSEM za niepokojące i niewłaściwe i zgłasza je, zaznaczając że incydent dotyczy CSAM – wyjaśnia kierownik Dyżurnet.pl.
Nie ma prawnych ograniczeń, dotyczących dystrybucji materiałów prezentujących dziecko w seksualnym kontekście. Jednak regulaminy wielu serwisów oraz społeczności do nich należące mogą samodzielnie ograniczać ich obecność we wspólnej przestrzeni. „Zachęcamy do tego, aby brać odpowiedzialność za treści obecne w naszych przekazach społecznościowych i zwracać uwagę na to co dzieje się wokół. Wiele zagrożeń można ograniczyć, jeśli zachowamy większą wrażliwość i nie będziemy bierni wobec negatywnych zjawisk”.
Fala lekkomyślności
Czasem negatywne zdarzenia są wynikiem działań podejmowanych w dobrej wierze. Przykładem jest zamieszanie, które powstało w ubiegłym roku w mediach w związku z rzekomą grą Niebieski Wieloryb, zagrażająca zdrowiu oraz życiu dzieci i młodzieży. Pierwsze doniesienia medialne ukazały się na jednym z rosyjskich portali w artykule na temat internetowego zjawiska „Blue Whale Game”, która miała rzekomo doprowadzić do samobójczej śmierci 130 rosyjskich nastolatków.
Wyimaginowany obraz gry zakładał, że jest to zabawa w parach lub grupach. Aby do niej przystąpić należało poprzez media społecznościowe znaleźć swojego „opiekuna”. Rola opiekuna polegała na wyznaczaniu zadań, które wykonywać miała druga osoba nazywana „wielorybem”. Pięćdziesiąt zadań – takich jak samookaleczanie czy budzenie się w środku nocy i oglądanie filmów wywołujących negatywne emocje, powinno zostać zrealizowane przez pięćdziesiąt kolejnych dni. Ostatnim zadaniem miało być samobójstwo. Przekazywanie niesprawdzonych informacji metodą „głuchego telefonu” prowadziło de facto do stworzenia takiej gry, której oryginalna nazwa na skutek błędnego tłumaczenia, uległa zmianie na „Niebieski Wieloryb”. Autorzy informacji powiązali 130 samobójstw z lat 2015 i 2016 z opisywanym schematem. Doniesienia wywołały niepokój wśród rodziców i opiekunów dzieci, ale, co bardziej niebezpieczne, mogły również stanowić inspirację do tworzenia rzeczywistych niebezpiecznych zabaw i stawiania zagrażających zdrowiu i życiu wyzwań.
Inny przykład zgłoszony do Zespołu dotyczył youtubera podejmującego temat szokujących treści, na które natknął się w „dark webie”. Obrazowo opowiadał i opisywał oglądaną wulgarną pornografię i drastyczne materiały, chcąc tym samym przestrzec swoich widzów przed celowym wchodzeniem w miejsca nieprzeznaczone dla młodych użytkowników.
– Warto dobierać sposób reakcji na niechciane i niepożądane treści. Ich cytowanie, przywoływanie, dyskutowanie często pozwala je dalej promować i zachęcać do poszukiwań oraz szerzyć przemocowe zachowania. Również bezrefleksyjne przekazywanie niesprawdzonych informacji i ostrzeżeń przed zagrożeniami często powoduje negatywne skutki. Warto pamiętać o możliwie pełnej weryfikacji informacji i zasadzie ograniczonego zaufania– przypomina Martyna Różycka.