Pedofielen gebruiken AI voor beelden van kindermisbruik.

Geschatte tijd om tekst te lezen: 7 minu(u)t(en)
Tik tok trend schaduw werken : zin en onzin voor relaties
Hoe gemakkelijk is het om iemands partner te stelen?

‘Online foto’s kunnen verzameld worden in gigantische collecties. Terwijl traditionele

white and brown human robot illustration

Photo by Possessed Photography

risico’s al relatief bekend zijn, heeft de opkomst van artificiële intelligentie voor een hele resem aan bijkomende gevaren gezorgd’, waarschuwt expert cyber security Jonas Bauters. Hij geeft een aantal tips op voor online fotohygiëne om de risico’s te beperken.

We delen allemaal wel eens een foto van onszelf of onze kinderen via sociale media. Daarnaast worden foto’s ook vaak op de website van een sportvereniging, school, of jeugdbeweging geplaatst, beschikbaar voor iedereen met een internetverbinding. Traditionele risico’s die daarmee gepaard gaan zijn de meesten onder ons wel bekend, waaronder bijvoorbeeld kinderpornografie op het dark web. Met de opkomst van artificiële intelligentie komen er echter een aantal nieuwe risico’s naar boven waar we niet meteen bij stilstaan.
Pedofielen gebruiken kunstmatige intelligentie (AI) om kinderporno te maken en te verkopen. Dat blijkt uit onderzoek van de Britse omroep BBC. De pornografische beelden worden gemaakt door AI-software geschreven opdrachten te geven.
Een van de gebruikte AI-software is Stable Diffusion, meldt BBC. Dat programma creëert beelden aan de hand van tekstuele aanwijzingen. De software heeft een ‘open variant’, waarbij verder geen regels gelden waar de beeldopdrachten aan moeten voldoen.
Britse autoriteiten vrezen dat kunstmatige intelligentie de toekomst van kinderporno gaat vormen. De politie zegt tegen BBC dat hoewel de beelden geen échte kinderen bevatten, het nog steeds schadelijk kan zijn.
Abonnementen
De kunstmatige beelden worden via het internet verkocht. Zelfs legale websites waarop abonnementen worden verhandeld, bijvoorbeeld Patreon, ontkomen niet aan de illegale handel. Bij platforms als Patreon werkt het zo dat gebruikers een abonnement betalen om bepaalde exclusieve content te kunnen zien. In dit geval nemen mensen dus een abonnement op accounts die kunstmatig gegenereerde kinderporno delen. Het platform heeft aan de Britse omroep verklaard een toename in kinderpornografisch materiaal te zien en een ‘zero tolerance’ beleid te hanteren. In andere woorden: kinderporno is niet toegestaan.

Uit een recent onderzoek door de Internet Watch Foundation is gebleken dat pedofielen AI gebruiken om afbeeldingen te maken van beroemdheden als kinderen, maar ook om foto’s van kinderacteurs te manipuleren en tientallen afbeeldingen te genereren van echte slachtoffers van seksueel misbruik van kinderen. Het rapport beschrijft hoe 11.000 AI-afbeeldingen werden gedeeld op één darknet-website voor kindermisbruik, waarvan er 3000 illegaal zouden zijn volgens de Britse wet.

MacBook Pro on white surface

Photo by Tianyi Ma

 

Meer dan één op de vijf van deze afbeeldingen werd geclassificeerd als categorie A, de meest serieuze vorm van ernstig misbruikend beeldmateriaal, en op meer dan de helft waren kinderen in de basisschoolleeftijd afgebeeld. In een ander onderzoek gaf 80% van de respondenten op een pedofielenforum op het dark web toe dat ze AI-tools hadden of van plan waren te gebruiken om afbeeldingen van seksueel misbruik van kinderen te maken.

Sommigen hebben geprobeerd te beargumenteren dat gesimuleerde beelden een “minder schadelijk” alternatief zouden kunnen bieden, omdat de kinderen “in werkelijkheid” niet worden aangevallen of uitgebuit. Toch normaliseren deze beelden pedofielzuchtig gedrag, creëren ze de vraag naar een fundamenteel uitbuitende industrie, compliceren ze politieonderzoeken en verspillen ze kostbare middelen, terwijl ze de gezichten en gelijkenissen van echte kinderen gebruiken.

 

Pedofielen gebruiken echte video’s en afbeeldingen van kindermisbruik om AI-programma’s te ’trainen’ om meer inhoud te creëren, of gebruiken sociale media-afbeeldingen van kinderen om ‘deepfake’-lookalikes te creëren. In een klein stadje in Spanje lieten ruim twintig meisjes tussen de 11 en 17 jaar door AI gegenereerde naaktfoto’s van zichzelf circuleren; ze waren niet “echt”, maar dat ontslaat de verantwoordelijken nauwelijks.

girl and boy standing on green grass field

Photo by 🇸🇮 Janko Ferlič

Waar gaat dit heen zonder regulering? Amazon , Instagram en Etsy zijn allemaal bekritiseerd omdat ze verkopers toestaan ​​reclame te maken voor sekspoppen die de grootte en kenmerken van kinderen benaderen. Als AI kinderpornografische simulaties kan maken, kan het ook opnames gebruiken om sekspoppen of robots te animeren met kinderstemmen of woordenschat.

Maar ondanks deze duidelijke gevaren is ‘sharenting’ (de praktijk waarbij ouders inhoud over hun kinderen publiceren op sociale media) populairder dan ooit. De meeste baby’s maken nu hun digitale debuut binnen een uur na de geboorte; ouders plaatsen vervolgens gemiddeld 1500 afbeeldingen van hun kinderen op sociale media voordat ze zelfs maar naar de basisschool gaan.

Ongeveer één op de vier ouders heeft een openbaar profiel, wat betekent dat iedereen hun berichten mag zien, terwijl 80% van de ouders toegeeft niet al hun vrienden op sociale media te kennen of volgers te hebben die ze nog nooit persoonlijk hebben ontmoet. Jarenlang hebben beroemdheden de gezichten van hun kinderen vervaagd in paparazzi-foto’s vanwege angst voor de veiligheid, en toch deelt nu iedereen, van ‘mummie-influencers’ met miljoenen volgers tot gewone mensen met enkele tientallen online vrienden, de intieme ins en outs van de gezichten van hun kinderen.

two girls standing on seashore

Photo by Limor Zellermayer

Opnieuw is de passiviteit van Groot-Brittannië op dit gebied opmerkelijk. Veel Amerikaanse staten hebben enorme vooruitgang geboekt als het gaat om het hard optreden tegen minderjarigen die zich toegang verschaffen tot pornografie ; Frankrijk heeft leeftijdsverificatie voor sociale-mediasites en strengere ouderlijk toezicht ingevoerd ; terwijl de EU TikTok heeft gedwongen zijn ‘For You’-algoritme optioneel te maken en advertenties gericht op 11-18-jarigen heeft verboden.

Groot-Brittannië heeft geen van deze dingen gedaan. Frankrijk heeft zelfs een wetsvoorstel ingediend dat ouders verbiedt om foto’s van kinderen op sociale media te delen, daarbij verwijzend naar het feit dat de helft van alle foto’s die op pedofielenforums worden uitgewisseld afkomstig zijn van foto’s die door families op deze platforms zijn geplaatst. Het is onwaarschijnlijk dat Groot-Brittannië dit voorbeeld snel zal volgen.

Dit is een gewaagde zet, maar we kunnen er niet op vertrouwen dat Big Tech zijn eigen inhoud kan modereren (we weten bijvoorbeeld al dat Instagram er niet in slaagt accounts te verwijderen die zijn gemarkeerd voor het plaatsen van geseksualiseerde inhoud van kinderen). Totdat AI wordt gereguleerd of er echte wetgeving wordt ingevoerd, is de enige manier om kinderen te beschermen tegen gezichtsherkenning, profilering, datamining, het verlies van hun anonimiteit en mogelijke veranderingen in een pornografische avatar, simpelweg stoppen met het plaatsen van berichten over hen.

Het gebruik of misbruik van artificiële intelligentie kan zelfs nog verder gaan. Andere toepassingen hebben niet dezelfde beperkingen opgelegd aan de trainingsdata voor hun model en bevatten dus wel seksuele inhoud. Lensa is een populaire app die op basis van een aantal selfies nieuwe foto’s van de gebruiker kan genereren. Zo kan je er plots uitzien als astronaut of superheld. In het geval van vrouwelijke gebruikers zijn de resultaten vaak iets schaarser gekleed, wat resulteert uit vooroordelen ingebouwd in het model door de trainingsdata. Deze zelfde vooroordelen blijven van toepassing wanneer kinderfoto’s gebruikt worden en resulteren in suggestieve of zelfs naaktbeelden.

Terwijl deze afbeeldingen “per ongeluk” gegenereerd worden, zijn bepaalde toepassingen zelfs expliciet gericht op het maken van naaktbeelden. Zogenaamde deepfakes zijn afbeeldingen of video’s die met artificiële intelligentie gegenereerd worden en de stem of het gezicht in bestaand beeldmateriaal kunnen vervangen. Vaak gaat het om vervalste pornografische video’s waarbij het gezicht van een beroemdheid in de video wordt geplaatst. Het gebruik van dit soort toepassingen om beeldmateriaal te maken van personen, meestal vrouwen, die de gebruiker persoonlijk kent neemt echter toe. Daarenboven is het onwaarschijnlijk dat dit soort technologie niet zal toegepast worden op foto’s van tieners of kinderen.

Het lijdt geen twijfel dat artificiële intelligentie en gerelateerde technologieën aanwezig zullen blijven en alleen maar in gebruik toenemen. Naast alle nuttige toepassingen en ontwikkelingen, is er ook het onvermijdelijke risico op misbruik, waardoor bewustwording van de gevaren alle belang heeft. Daarnaast kunnen we proberen de risico’s zoveel mogelijk te beperken en anderen te informeren.

Bron Het Nieuwsblad online 28/09/2023

Australië zal ervoor zorgen dat zoekmachines zoals Google en Bing stappen ondernemen om te voorkomen dat materiaal over seksueel kindermisbruik dat door kunstmatige intelligentie is gemaakt, wordt gedeeld, aldus de internettoezichthouder van het land op vrijdag.

Een nieuwe code die op verzoek van de regering door de industriereuzen is opgesteld, verplicht zoekmachines om ervoor te zorgen dat dergelijke inhoud niet in de zoekresultaten wordt weergegeven, aldus Julie Inman Grant, commissaris voor e-Safety, in een verklaring.

Het zal ook vereisen dat AI-functies die in zoekmachines zijn ingebouwd geen synthetische versies van hetzelfde materiaal kunnen produceren, zei ze. Synthetische versies van het materiaal worden ook wel deepfakes genoemd.

“Het gebruik van generatieve AI is zo snel gegroeid dat ik denk dat het de hele wereld tot op zekere hoogte heeft verrast,” zei Inman Grant.

De code is een voorbeeld van hoe het regelgevende en juridische landschap rondom internetplatforms opnieuw gevormd wordt door de explosie van producten die automatisch levensechte inhoud genereren.

Bronnen

https://www.rtlnieuws.nl/tech/artikel/5393474/ai-kunstmatige-intelligentie-kinderporno-illegaal-handel

https://www.demorgen.be/nieuws/illegale-handel-in-levensechte-virtuele-kinderporno-deze-beelden-zijn-wel-degelijk-problematisch~baf51aae

https://www.nieuwsblad.be/cnt/dmf20230928_92873134

https://www.stuff.co.nz/sunday-star-times/latest-edition/782095/Warning-over-kids-holiday-photos-on-internet

https://blog.nviso.eu/2023/04/04/an-innocent-picture-how-the-rise-of-ai-makes-it-easier-to-abuse-photos-online/

https://www.knack.be/nieuws/technologie/een-onschuldige-foto-hoe-ai-online-kindermisbruik-in-de-hand-kan-werken/

https://unherd.com/thepost/predators-are-exploiting-ai-for-child-abuse-images/

https://apnews.com/article/ai-artificial-intelligence-child-sexual-abuse-c8f17de56d41f05f55286eb6177138d2

https://www.michaelfreilich.be/ai-kindermisbruik

https://be.marketscreener.com/koers/aandeel/ALPHABET-INC-24203373/nieuws/Australie-verplicht-AI-materiaal-over-kindermisbruik-uit-zoekresultaten-te-verwijderen-44799114/

https://www.beyondgaming.be/threads/rol-van-ai-in-therapie-pedofilie.26018/page-14#post-1083670