Pedofielen gebruiken AI voor beelden van kindermisbruik.
‘Online foto’s kunnen verzameld worden in gigantische collecties. Terwijl traditionele
risico’s al relatief bekend zijn, heeft de opkomst van artificiële intelligentie voor een hele resem aan bijkomende gevaren gezorgd’, waarschuwt expert cyber security Jonas Bauters. Hij geeft een aantal tips op voor online fotohygiëne om de risico’s te beperken.
Uit een recent onderzoek door de Internet Watch Foundation is gebleken dat pedofielen AI gebruiken om afbeeldingen te maken van beroemdheden als kinderen, maar ook om foto’s van kinderacteurs te manipuleren en tientallen afbeeldingen te genereren van echte slachtoffers van seksueel misbruik van kinderen. Het rapport beschrijft hoe 11.000 AI-afbeeldingen werden gedeeld op één darknet-website voor kindermisbruik, waarvan er 3000 illegaal zouden zijn volgens de Britse wet.
Meer dan één op de vijf van deze afbeeldingen werd geclassificeerd als categorie A, de meest serieuze vorm van ernstig misbruikend beeldmateriaal, en op meer dan de helft waren kinderen in de basisschoolleeftijd afgebeeld. In een ander onderzoek gaf 80% van de respondenten op een pedofielenforum op het dark web toe dat ze AI-tools hadden of van plan waren te gebruiken om afbeeldingen van seksueel misbruik van kinderen te maken.
Sommigen hebben geprobeerd te beargumenteren dat gesimuleerde beelden een “minder schadelijk” alternatief zouden kunnen bieden, omdat de kinderen “in werkelijkheid” niet worden aangevallen of uitgebuit. Toch normaliseren deze beelden pedofielzuchtig gedrag, creëren ze de vraag naar een fundamenteel uitbuitende industrie, compliceren ze politieonderzoeken en verspillen ze kostbare middelen, terwijl ze de gezichten en gelijkenissen van echte kinderen gebruiken.
Pedofielen gebruiken echte video’s en afbeeldingen van kindermisbruik om AI-programma’s te ’trainen’ om meer inhoud te creëren, of gebruiken sociale media-afbeeldingen van kinderen om ‘deepfake’-lookalikes te creëren. In een klein stadje in Spanje lieten ruim twintig meisjes tussen de 11 en 17 jaar door AI gegenereerde naaktfoto’s van zichzelf circuleren; ze waren niet “echt”, maar dat ontslaat de verantwoordelijken nauwelijks.
Waar gaat dit heen zonder regulering? Amazon , Instagram en Etsy zijn allemaal bekritiseerd omdat ze verkopers toestaan reclame te maken voor sekspoppen die de grootte en kenmerken van kinderen benaderen. Als AI kinderpornografische simulaties kan maken, kan het ook opnames gebruiken om sekspoppen of robots te animeren met kinderstemmen of woordenschat.
Maar ondanks deze duidelijke gevaren is ‘sharenting’ (de praktijk waarbij ouders inhoud over hun kinderen publiceren op sociale media) populairder dan ooit. De meeste baby’s maken nu hun digitale debuut binnen een uur na de geboorte; ouders plaatsen vervolgens gemiddeld 1500 afbeeldingen van hun kinderen op sociale media voordat ze zelfs maar naar de basisschool gaan.
Ongeveer één op de vier ouders heeft een openbaar profiel, wat betekent dat iedereen hun berichten mag zien, terwijl 80% van de ouders toegeeft niet al hun vrienden op sociale media te kennen of volgers te hebben die ze nog nooit persoonlijk hebben ontmoet. Jarenlang hebben beroemdheden de gezichten van hun kinderen vervaagd in paparazzi-foto’s vanwege angst voor de veiligheid, en toch deelt nu iedereen, van ‘mummie-influencers’ met miljoenen volgers tot gewone mensen met enkele tientallen online vrienden, de intieme ins en outs van de gezichten van hun kinderen.
Opnieuw is de passiviteit van Groot-Brittannië op dit gebied opmerkelijk. Veel Amerikaanse staten hebben enorme vooruitgang geboekt als het gaat om het hard optreden tegen minderjarigen die zich toegang verschaffen tot pornografie ; Frankrijk heeft leeftijdsverificatie voor sociale-mediasites en strengere ouderlijk toezicht ingevoerd ; terwijl de EU TikTok heeft gedwongen zijn ‘For You’-algoritme optioneel te maken en advertenties gericht op 11-18-jarigen heeft verboden.
Groot-Brittannië heeft geen van deze dingen gedaan. Frankrijk heeft zelfs een wetsvoorstel ingediend dat ouders verbiedt om foto’s van kinderen op sociale media te delen, daarbij verwijzend naar het feit dat de helft van alle foto’s die op pedofielenforums worden uitgewisseld afkomstig zijn van foto’s die door families op deze platforms zijn geplaatst. Het is onwaarschijnlijk dat Groot-Brittannië dit voorbeeld snel zal volgen.
Dit is een gewaagde zet, maar we kunnen er niet op vertrouwen dat Big Tech zijn eigen inhoud kan modereren (we weten bijvoorbeeld al dat Instagram er niet in slaagt accounts te verwijderen die zijn gemarkeerd voor het plaatsen van geseksualiseerde inhoud van kinderen). Totdat AI wordt gereguleerd of er echte wetgeving wordt ingevoerd, is de enige manier om kinderen te beschermen tegen gezichtsherkenning, profilering, datamining, het verlies van hun anonimiteit en mogelijke veranderingen in een pornografische avatar, simpelweg stoppen met het plaatsen van berichten over hen.
Het gebruik of misbruik van artificiële intelligentie kan zelfs nog verder gaan. Andere toepassingen hebben niet dezelfde beperkingen opgelegd aan de trainingsdata voor hun model en bevatten dus wel seksuele inhoud. Lensa is een populaire app die op basis van een aantal selfies nieuwe foto’s van de gebruiker kan genereren. Zo kan je er plots uitzien als astronaut of superheld. In het geval van vrouwelijke gebruikers zijn de resultaten vaak iets schaarser gekleed, wat resulteert uit vooroordelen ingebouwd in het model door de trainingsdata. Deze zelfde vooroordelen blijven van toepassing wanneer kinderfoto’s gebruikt worden en resulteren in suggestieve of zelfs naaktbeelden.
Terwijl deze afbeeldingen “per ongeluk” gegenereerd worden, zijn bepaalde toepassingen zelfs expliciet gericht op het maken van naaktbeelden. Zogenaamde deepfakes zijn afbeeldingen of video’s die met artificiële intelligentie gegenereerd worden en de stem of het gezicht in bestaand beeldmateriaal kunnen vervangen. Vaak gaat het om vervalste pornografische video’s waarbij het gezicht van een beroemdheid in de video wordt geplaatst. Het gebruik van dit soort toepassingen om beeldmateriaal te maken van personen, meestal vrouwen, die de gebruiker persoonlijk kent neemt echter toe. Daarenboven is het onwaarschijnlijk dat dit soort technologie niet zal toegepast worden op foto’s van tieners of kinderen.
Het lijdt geen twijfel dat artificiële intelligentie en gerelateerde technologieën aanwezig zullen blijven en alleen maar in gebruik toenemen. Naast alle nuttige toepassingen en ontwikkelingen, is er ook het onvermijdelijke risico op misbruik, waardoor bewustwording van de gevaren alle belang heeft. Daarnaast kunnen we proberen de risico’s zoveel mogelijk te beperken en anderen te informeren.
Australië zal ervoor zorgen dat zoekmachines zoals Google en Bing stappen ondernemen om te voorkomen dat materiaal over seksueel kindermisbruik dat door kunstmatige intelligentie is gemaakt, wordt gedeeld, aldus de internettoezichthouder van het land op vrijdag.
Een nieuwe code die op verzoek van de regering door de industriereuzen is opgesteld, verplicht zoekmachines om ervoor te zorgen dat dergelijke inhoud niet in de zoekresultaten wordt weergegeven, aldus Julie Inman Grant, commissaris voor e-Safety, in een verklaring.
Het zal ook vereisen dat AI-functies die in zoekmachines zijn ingebouwd geen synthetische versies van hetzelfde materiaal kunnen produceren, zei ze. Synthetische versies van het materiaal worden ook wel deepfakes genoemd.
“Het gebruik van generatieve AI is zo snel gegroeid dat ik denk dat het de hele wereld tot op zekere hoogte heeft verrast,” zei Inman Grant.
De code is een voorbeeld van hoe het regelgevende en juridische landschap rondom internetplatforms opnieuw gevormd wordt door de explosie van producten die automatisch levensechte inhoud genereren.
Bronnen
https://www.nieuwsblad.be/cnt/dmf20230928_92873134
https://unherd.com/thepost/predators-are-exploiting-ai-for-child-abuse-images/
https://www.michaelfreilich.be/ai-kindermisbruik
https://www.beyondgaming.be/threads/rol-van-ai-in-therapie-pedofilie.26018/page-14#post-1083670