UNICEF waarschuwt: zo worden kinderfoto’s misbruikt door AI

AI Beeld: Canva
Redactie Kek Mama
Redactie Kek Mama
Leestijd: 3 minuten

Je deelt een leuke schoolfoto, een vakantiekiekje of een selfie van je kind. Onschuldig, toch?

Lees verder onder de advertentie

Maar nieuwe cijfers laten zien dat zulke beelden steeds vaker worden misbruikt door AI. DAenk aan seksueel getinte deepfakes van kinderen…

AI en kinderfoto’s

In een nieuw en zorgwekkend rapport van UNICEF, ECPAT en INTERPOL blijkt hoe groot het probleem inmiddels is, en hoe echt de schade voor kinderen voelt. Volgens het onderzoek gaven wereldwijd minstens 1,2 miljoen kinderen aan dat hun foto’s het afgelopen jaar zijn gebruikt voor seksuele deepfakes. UNICEF is daar glashelder over: “Deepfake-kindermisbruik is real life kindermisbruik.”

Lees verder onder de advertentie

Schrijnend

De studie, uitgevoerd in elf landen, laat zien hoe schrijnend de cijfers zijn. In sommige regio’s is zelfs 1 op de 25 kinderen slachtoffer. Dat komt neer op gemiddeld één kind per klas. Een veelgebruikte techniek is zogeheten nudification: AI die op bestaande foto’s digitaal kleding verwijdert of aanpast, waardoor er extreem realistische, maar volledig valse, naaktbeelden ontstaan.

Lees verder onder de advertentie

Identiteit

Ook “nep” beelden hebben echte gevolgen. UNICEF benadrukt dat het woord “nep” de ernst van de situatie tekortdoet. Zodra het gezicht of de identiteit van een kind wordt gebruikt, is dat kind slachtoffer van seksueel misbruik. Ook als een beeld niet direct te herleiden is tot een echt kind, is de schade groot. Dit soort materiaal normaliseert seksuele uitbuiting en vervuilt bovendien de databases van opsporingsdiensten, wat het vinden van kinderen in acute nood lastiger maakt.

Lees verder onder de advertentie

De angst onder kinderen groeit. In meerdere landen zegt tot twee derde van de ondervraagde minderjarigen bang te zijn dat hun foto’s via AI-tools misbruikt zullen worden voor seksuele doeleinden.

Tools

Hoewel sommige AI-bedrijven beveiligingen inbouwen, worden veel tools nog steeds zonder stevige waarborgen gelanceerd. UNICEF roept op tot drie duidelijke stappen:

  • Wetgeving: overheden moeten hun wetten uitbreiden zodat ook AI-gegenereerd misbruikmateriaal expliciet strafbaar is.
  • Preventief design: AI-bedrijven moeten hun technologie zo ontwikkelen dat het maken van dit soort beelden technisch onmogelijk wordt.
  • Platformbeheer: sociale media en platforms moeten beter investeren in detectie, zodat dit materiaal direct wordt geblokkeerd in plaats van pas achteraf verwijderd.

Moderniseren

In het nieuwe Nederlandse coalitieakkoord van 2026 is de aanpak van seksuele deepfakes opgenomen. De overheid wil de wetgeving moderniseren en een centraal, laagdrempelig meldpunt opzetten waar slachtoffers hulp kunnen krijgen bij aangiftes en verwijderverzoeken. UNICEF Nederland roept het kabinet-Jetten op om kinderen hierbij expliciet als kwetsbare doelgroep te behandelen, zodat hun digitale veiligheid ook juridisch beter wordt beschermd.

Lees verder onder de advertentie

Wil je trouwens weten hoe AI jouw leven als moeder een stúk makkelijker kan maken? Je leest het hier.

Bron: UNICEF

Lees verder onder de advertentie

Meest bekeken

Facebook Twitter Whatsapp E-mail