Congresverslag
Online seksueel misbruik: Nieuwe evoluties en uitdagingen
Online seksueel misbruik is een wereldwijd probleem, waarbij de traditionele middelen onvoldoende soelaas bieden. Verschillende stakeholders botsen op hun beperkingen om de exponentiële groei van onder andere seksuele misbruikbeelden van minderjarigen (CSAM) in te dijken (Lee et al., 2020). Sinds enkele jaren volgt daarbij nog een extra uitdaging: artificiële intelligentie (AI). Het Universitair Forensisch Centrum (UFC) organiseerde daarom, samen met PROTECH, gefinancierd door de Europese Unie, op 28 januari 2025 een studiedag aan de Universiteit Antwerpen over de nieuwe evoluties en uitdagingen bij online seksueel misbruik.
Nina Vaaranen-Valkonen, Protect Children, en Hanna Lahtinen, Universiteit Oost-Finland, gaf een overzicht van hun verschillende onderzoeken over online seksueel kindermisbruik. Het eerste onderzoek werd uitgevoerd met als doel meer inzicht te krijgen in de drijfveren van CSAM plegers. In totaal werden meer dan 72.000 mensen, die CSAM online zochten, op het darkweb bereikt. Het onderzoek concludeert dat 70% voor de eerste keer CSAM opzocht, 42% eerder al contact zocht met een minderjarige en 55% hun gedrag wil veranderen. Gezien meer dan de helft gedragsverandering wil bekomen, moet er dus ingezet worden op het aanbieden van gepaste hulp. Tevens onderzochten ze welke kanalen worden gebruikt om toegang te krijgen tot CSAM beeldmateriaal. Het onderzoek toont aan dat 77% van de respondenten CSAM heeft gevonden op het open web, 32% via een pornografie website en 29% via een social media platform. Het delen van de beelden gebeurt in 32% van de gevallen via social media, het contacteren van minderjarigen gebeurt voornamelijk via social media, messaging apps en online games (Insoll et al., 2024a). Daarnaast werd binnen het 2KNOW-project onderzoek naar factoren die bijdragen aan het delictgedrag. 4.549 respondenten vulden de vragenlijst in op het darkweb, waarvan 68% mannen. 70% van de deelnemers kwam voor de leeftijd van 18 jaar voor de eerste keer in aanraking met CSAM. De meeste deelnemers zoeken naar beeldmateriaal van meisjes tussen de 11 en 14 jaar oud en bijna de helft geeft aan een minderjarige te hebben gecontacteerd. Daarnaast beschrijft het onderzoek ook verschillende factoren die bijdragen tot CSAM delictgedrag. Hierbij gaat het om motivatie, zoals parafilieën, faciliterende en situationele factoren, zoals de invloed van pornografie en de anonimiteit van het internet, alsook enkele barrières zoals preventieve interventies en ontradingscampagnes. Een belangrijke nuance bij dit onderzoek betreft het feit dat het gaat om een specifieke populatie binnen de heterogene groep van CSAM plegers, namelijk diegene die actief zijn op darkweb (Insoll et al., 2024b). Tot slot deed het 2KNOW project ook onderzoek naar de verschillen onder CSAM plegers (n=3782). Het onderzoek bekijkt drie groepen: (1) personen veroordeeld voor zedenfeiten ten aanzien van minderjarigen; (2) personen veroordeeld voor zedenfeiten ten aanzien van meerderjarigen; en (3) personen zonder veroordelingen. De belangrijkste conclusies betreffen dat de meesten op zoek waren naar materiaal van meisjes, alsook een aanzienlijk deel een seksuele interesse had in kleuters. De meerderheid van hen zocht CSAM vanuit een seksuele interesse in kinderen, bij de niet-veroordeelde groep was er in verhouding het meeste desensitisatie voor volwassen porno en sommigen zochten fysiek contact met minderjarigen. Het onderzoek toont bovendien dat er weldegelijk verschillen zijn tussen de drie groepen. Zo heeft de veroordeelde groep meer criminele voorgeschiedenis, is er vaker sprake van grooming, contact met een kind en zijn er meer voorkeuren voor jonge kinderen (Lahtinen et al., 2025).
Kevin Reulens, Federale Gerechtelijke Politie (FGP), gaf toelichting over de digitale evoluties van online seksueel misbruik op het niveau van de opsporing. De seksuele ontwikkeling van minderjarigen vindt vaak online plaats, maar wordt ook misbruikt door plegers, met het internet als katalysator. Het vormt een snel verspreidingsproces van zelf gegenereerd materiaal met uiteindelijk verlies van controle bij het slachtoffer, waardoor een groot aantal CSAM onbedoeld beschikbaar wordt. Daarnaast heeft de technologische evolutie betrekking op generatieve AI. Dit soort technologie wordt steeds vaker gebruikt voor het generen van CSAM, met recent een stijgend realisme, extremer beeldmateriaal en breder volume. Bovendien wordt alle informatie rond het gebruik van dit soort technologie gedeeld op misbruik platformen, wat de toegankelijkheid bevordert. Ook kwam Extended Reality (XR) aan bod. Ze zien een opmars van platformen waar VR-devices worden geïntegreerd naast audio en video om bijvoorbeeld tastzin na te bootsen. De conclusie is dat deze technologische evoluties ongekend zijn en aan een zeer hoog tempo verlopen.
Wat betreft de behandeling van CSAM plegers stelde Ida Oeverland, Lucy Faithfull Foundation (LFF). LFF beoogt een veilige groepsomgeving te creëren, biedt informatie over de (juridische) gevolgen, psychosociale ondersteuning en praktische informatie. Inhoudelijk behandelen de programma’s verschillende thema’s zoals: modellen voor delinquent gedrag, zelfzorg, relaties en terugvalpreventie. De sessies gebeuren volgens de cognitieve gedragsgerichte aanpak, waarbij responsiviteit centraal staat. In 2023 namen in totaal 296 personen deel. Over het algemeen gaven de deelnemers aan dat ze hun eigen patronen beter hebben leren begrijpen, alsook benoemen ze progressie in de manier waarop ze hun eigen risico om feiten te plegen kunnen verlagen. Tenslotte rapporteren ze ook een positieve impact op de mentale gezondheid.
Hannes Gieselier, Charité, lichtte STOP-CSAM toe, een project waarbij via therapeutische chatinterventies met CSAM plegers wordt gewerkt. Dit betreffen 4 gesprekken met volwassen CSAM plegers over allerhande thema’s: begrijpen van het delictgedrag, aanvaarding van de seksuele voorkeur, persoonlijke waarden, emotieregulatie, probleem management en veiligheids-en veranderingsplan. Er werd onderzoek gedaan met een test- en controlegroep. Daaruit bleek dat de interventies positieve impact hadden op het CSAM gebruik. Daarnaast werden voorwaarden voor helpende interventies meegegeven met als conclusie dat gerichte, toegankelijke en snelle therapeutische interventies verandering op gang brengen. Echter is het behoud van privacy en anonimiteit cruciaal om een goed bereik te kennen.
Ook Minne De Boeck, UFC en Stop it Now! Vlaanderen, lichtte online 1 op 1 ondersteuning van CSAM plegers toe. Het Rethink project gebruikt een chatbot op basis van AI, gekoppeld aan een ontradingsboodschap bij de zoektocht naar gebande zoektermen op legale pornosites. Op deze manier hoopt Stop it Now! de toeleiding naar hulp te verbeteren. Er werd immers een blended care aanbod ter ondersteuning van CSAM gebruikers ontwikkeld, gelinkt aan hun online zelfhulpmodule voor CSAM plegers. Thema’s hierbij zijn: verwachtingen van de hulpvrager, het scherp stellen van problematiek en inzicht, veiligheidsplanning, hulpnoden in de toekomst, etc. De Boeck maakte hierbij de denkoefening of -en hoe- AI kan bijdragen aan specifieke interventies met betrekking tot CSAM preventie. Er zijn namelijk verschillende voordelen zoals de toegankelijkheid vergroten, een betere toeleiding tot bepaalde platforms, snellere en efficiëntere hulpverlening, opleidingsondersteuning etc. Echter biedt het ook meerdere uitdagingen zoals de delicate materie en doelgroep, het inschatten van gevaar en meerdere ethische dilemma’s (gebrek aan menselijk contact, inschatten van veiligheid), etc...
Tot slot stelde Larissa Van Puyvelde, UFC, het PROTECH project voor dat een applicatie, genaamd Salus, ontwikkelde met input van CSAM plegers zelf. De app verhindert CSAM gebruik aan de hand van machine learning (AI toepassing). De app wordt vrijwillig geïnstalleerd op het apparaat van de gebruiker en controleert internetverkeer op gebruik van CSAM en -wanneer relevant- legale porno. Wanneer deze worden gedetecteerd, verschijnt een blokkeringsmelding en wordt de inhoud geblokkeerd. Op basis van verworven inzichten in het onderzoek werd de app ontwikkeld met anonimiteit en privacy als fundament. Het onderzoek bestond uit de uitrol van de app in vier landen binnen behandelcentra en Stop it Now!, dit in totaal bij 38 CSAM plegers. De testperiode duurde tussen de drie en zes maanden. Naast het testen van de app werden deelnemers gevraagd om op vaste meetmomenten een survey in te vullen, alsook op het einde van de pilot een interview af te nemen. Over het algemeen rapporteerden de deelnemers dat Salus werkte zoals verwacht en geen moeilijkheden veroorzaakte op de apparaten. Anderzijds waren er een aantal respondenten waarbij verschillende (technische) moeilijkheden werden gesignaleerd (bv. problemen bij gebruik van andere apps, vertraagd internetverkeer, vals positieven). Desondanks meldden de meeste deelnemers dat ze Salus als nuttig, noodzakelijk en ondersteunend ervaren, alsook dat het bruikbaar kan zijn in therapie.
Concluderend bestaan er verschillende uitdagingen met betrekking tot online seksueel misbruik. Echter kunnen AI en andere technologische evoluties ook bijdragen aan een verbeterde toeleiding, inzichten in behandeling en efficiënte preventie.
Referenties
Insoll, T., Soloveva V., Viaz Bethencourt, E., Ovaska, A. & Vaaranen-Valkonen,N. (2024a). Tech platforms Used by Online Child Sexual Abuse Offenders. Research Report.
Insoll, T., Soloveva, V., Díaz Bethencourt, E., Nieminen, N., Leivo, K., Ovaska, A., & Vaaranen-Valkonen, N. (2024b). What Drives Online Child Sexual Abuse Offending? Understanding Motivations, Facilitators, Situational Factors, and Barriers. 2KNOW project. https://www.suojellaanlapsia.fi/en/2know-research-report.
Lahtinen, H., Honkalampi, K., Insoll, T., Nurmi, J., Quayle, E., Ovaska, A. K., & Vaaranen-Valkonen, N. (2025). Investigating the disparities among child sexual abuse material users: Anonymous self-reports from both charged and uncharged individuals. Child Abuse & Neglect, 161, 107299. https://doi.org/10.1016/j.chiabu.2025.107299
Lee. H-E., Ermakova, T., Ververisa, V., & Fabiana, B. (2020). ‘Detecting child sexual abuse material: A comprehensive survey’, Forensic Science International: Digital Investigation [e-journal] 34, 301022. https://doi.org/10.1016/j.fsidi.2020.301022