Psychologie onthult verbanden met psychopathie en lagere cognitieve vaardigheden bij deepfakes
De afgelopen dagen heeft de kwestie van deepfakes centraal gestaan in het publieke
bewustzijn, onderstreept door de verontrustende zaak rond de wereldwijd bekende popster Taylor Swift. Kunstmatige intelligentie (AI) is gebruikt om zeer overtuigende, maar volledig valse, expliciete beelden van Swift te creëren, wat aanleiding gaf tot wijdverbreide bezorgdheid en discussie.
Deepfakes, een combinatie van ‘deep learning’ en ‘fake’, zijn geavanceerde synthetische media waarbij een persoon in een bestaande afbeelding of video wordt vervangen door de gelijkenis van iemand anders met behulp van geavanceerde AI-technologieën. Hoewel deze technologieën indrukwekkende toepassingen hebben, roepen ze ook aanzienlijke ethische en privacyproblemen op, vooral wanneer ze worden gebruikt om expliciete inhoud te creëren zonder de toestemming van de afgebeelde personen.
Het Taylor Swift-incident
De verspreiding van pornografische deepfake-afbeeldingen van Taylor Swift op sociale-mediaplatforms, waaronder een afbeelding die door meer dan 47 miljoen gebruikers op X (voorheen bekend als Twitter) werd gezien, heeft de discussies over de wettigheid en ethiek van dergelijke inhoud opnieuw aangewakkerd. Ondanks pogingen van platforms om deze afbeeldingen te verwijderen en de verantwoordelijken te bestraffen, blijft de impact aanzienlijk en verreikend.
Dit incident heeft in de Verenigde Staten geleid tot tweeledige oproepen tot strengere federale wetten tegen deepfake-pornografie, waarbij de nadruk wordt gelegd op de diepgaande emotionele, financiële en reputatieschade die het kan toebrengen, vooral aan vrouwen.
De door het Democratisch Congreslid Joseph Morelle voorgestelde Wet ter voorkoming van deepfakes van intieme afbeeldingen heeft tot doel het delen van deepfake-pornografie zonder wederzijds goedvinden strafbaar te stellen. Op dezelfde manier heeft het Republikeinse congreslid Tom Kean Jr. de noodzaak benadrukt van waarborgen tegen de snelle vooruitgang van AI-technologie in deze context, en pleitte hij voor een AI Labeling Act die duidelijke etikettering van alle door AI gegenereerde inhoud verplicht stelt.
Het richten van vrouwen op het creëren van niet-consensuele pornografische deepfakes is niet nieuw, maar is wijdverbreider geworden door de vooruitgang op het gebied van AI. Uit een onderzoek van DeepTrace Labs uit 2019 bleek dat 96% van de deepfake-video-inhoud pornografisch materiaal zonder toestemming was .
De psychologie van deepfakes
De psychologie achter het creëren en delen van deepfakes is een complexe zaak. Onderzoek op dit gebied bevindt zich nog in de beginfase en richt zich op de kenmerken van individuen die dergelijk gedrag vertonen en ons vermogen om dit te detecteren.
Wie maakt en deelt deepfakes?
Twee recente onderzoeken hebben licht geworpen op de psychologische en cognitieve profielen van individuen die deepfakes creëren en delen, waardoor inzichten in hun motivaties en gevoeligheid worden onthuld.
De rol van psychopathie
Een studie gepubliceerd in het tijdschrift Computers in Human Behavior werpt licht op de psychologische kenmerken die verband houden met het creëren en delen van deepfake-pornografie. De bevindingen suggereerden een zorgwekkend verband tussen psychopathische eigenschappen en de waarschijnlijkheid dat men dergelijke activiteiten zou ontplooien.
Psychopathie, gekenmerkt door een gebrek aan empathie en spijt, impulsiviteit en antisociaal gedrag, kwam in deze context naar voren als een belangrijke voorspeller. Individuen die hoger scoorden op de psychopathieschaal bleken meer geneigd om deepfakes te creëren. Deze tendens komt overeen met de algemene minachting voor het welzijn van anderen en het manipulatieve, risicovolle gedrag dat vaak in verband wordt gebracht met psychopathie.
Uit het onderzoek bleek ook dat mensen met hogere psychopathiescores meer vatbaar waren voor het beschuldigen van het slachtoffer en het creëren van deepfakes als minder schadelijk beschouwden. Dit verminderde gevoel van schade en verantwoordelijkheid wijst op een gevaarlijk rationalisatieproces dat de verspreiding van dergelijke inhoud zou kunnen aanwakkeren.
“Persoonlijkheidskenmerken die verband houden met de ondersteuning van afwijkend onlinegedrag en seksuele misdrijven in bredere zin, bijvoorbeeld psychopathie, voorspelden mildere oordelen over overtredingen, evenals een grotere neiging om afbeeldingen te creëren en te delen – wat suggereert dat we door verder onderzoek mogelijk in staat zouden kunnen zijn om beter mensen voorspellen die eerder geneigd zijn dergelijk gedrag te vertonen en dienovereenkomstig ingrijpen”, legde de hoofdauteur van het onderzoek, Dean Fido, in 2022 uit aan PsyPost .
Geslacht en beroemdheidsstatus in de perceptie van slachtoffers
Het onderzoek benadrukte verder hoe de perceptie van deepfake-incidenten varieert op basis van het geslacht en de beroemdheidsstatus van het slachtoffer. Incidenten waarbij vrouwelijke slachtoffers betrokken waren, werden als schadelijker en crimineler gezien dan incidenten waarbij mannelijke slachtoffers betrokken waren. Bovendien was er een opmerkelijk verschil in de manier waarop mannen en vrouwen deze incidenten zagen, waarbij mannen minder snel deepfakes van beroemdheden als schadelijk beschouwen dan die waarbij niet-beroemdheden betrokken waren.
Cognitieve vaardigheden en het delen van deepfakes
Voortbouwend op het psychologische profiel onderzoekt een ander onderzoek in Heliyon de invloed van cognitieve vaardigheden op de gevoeligheid voor en het delen van deepfakes. De bevindingen gaven aan dat individuen met hogere cognitieve vaardigheden, gekenmerkt door betere informatieverwerking en besluitvormingsvaardigheden, minder snel worden misleid door deepfakes of deze delen.
Individuen met hogere cognitieve vaardigheden zijn geneigd informatie kritischer te analyseren, waardoor ze minder vatbaar zijn voor het geloof in de authenticiteit van deepfakes. Dit verhoogde scepticisme vertaalt zich ook in een kleinere kans op het delen van deepfakes, zo bleek uit het onderzoek, wat wijst op de beschermende rol van cognitieve vaardigheden tegen manipulatie door dergelijke geavanceerde AI-technologieën.
Deepfake-detectievermogen
Drie recente onderzoeken hebben aanzienlijke vooruitgang geboekt in het begrijpen van hoe mensen omgaan met deepfake-technologie en deze waarnemen.
De onbewuste herkenning van AI-gezichten
Uit een in Vision Research gepubliceerde studie bleek dat hoewel deelnemers moeite hadden om verbaal onderscheid te maken tussen echte gezichten en hyperrealistische door AI gegenereerde gezichten, hun hersenactiviteit in 54% van de gevallen door AI gegenereerde gezichten correct kon identificeren, waarmee ze hun verbale identificatienauwkeurigheid van 37% aanzienlijk overtroffen. . Dit suggereert een dieper, onbewust niveau waarop onze hersenen de authenticiteit van beelden verwerken en herkennen.
“Met behulp van gedrags- en neuroimaging-methoden ontdekten we dat het mogelijk was om op betrouwbare wijze door AI gegenereerde nepbeelden te detecteren met behulp van EEG-activiteit met slechts een korte blik, ook al konden waarnemers niet bewust melden dat ze verschillen zagen”, concludeerden de onderzoekers. “Gezien het feit dat waarnemers al worstelen met het onderscheid tussen nep- en echte gezichten, is het van onmiddellijk en praktisch belang om verder te onderzoeken op welke belangrijke manieren de hersenen de twee uit elkaar kunnen houden.”
Hyperrealisme in AI-gezichten
De tweede studie, gedetailleerd beschreven in Psychological Science en geleid door Amy Dawel van de Australian National University, onderzocht het fenomeen ‘hyperrealisme’ in door AI gegenereerde gezichten. Dit onderzoek onderzocht waarom AI-gezichten vaak menselijker lijken dan echte menselijke gezichten.
Met behulp van psychologische theorieën zoals de face-space-theorie onderzocht het onderzoek hoe door AI gegenereerde gezichten de gemiddelde menselijke kenmerken prominenter zouden kunnen belichamen dan echte gezichten. Intrigerend genoeg ontdekte de studie een voorkeur voor hyperrealisme in door AI gegenereerde blanke gezichten, die consequent als menselijker werden ervaren dan echte blanke menselijke gezichten.
De paradox van overmoed
Dit hyperrealisme-effect werd verder onderstreept door een overmoed bij deelnemers die minder nauwkeurig waren in het detecteren van AI-gezichten, wat wijst op een complexe interactie tussen perceptie, vooroordelen en vertrouwen in het identificeren van door AI gegenereerde inhoud.
“We hadden verwacht dat mensen zouden beseffen dat ze niet zo goed waren in het detecteren van AI, gezien hoe realistisch de gezichten zijn geworden. We waren zeer verrast toen we ontdekten dat mensen overmoedig waren”, vertelde Dawel vorig jaar aan PsyPost . “Mensen zijn niet erg goed in het opsporen van AI-bedriegers – en als je denkt dat dit wel het geval is, betekent de verandering dat je meer fouten maakt dan de meeste anderen. Uit ons onderzoek bleek dat de mensen met het meeste vertrouwen de meeste fouten maakten bij het detecteren van door AI gegenereerde gezichten.”
Een verbinding met complotmentaliteit en gebruik van sociale media
Uit het derde onderzoek, van Telematics and Informatics , bleek dat individuen die hoger scoorden op de schaal van samenzweringsmentaliteit en degenen die meer tijd op sociale media doorbrachten, beter waren in het identificeren van deepfake-video’s. Dit suggereert dat een meer vragende mentaliteit en regelmatige blootstelling aan gevarieerde media-inhoud iemands vermogen om deepfakes te onderscheiden zouden kunnen vergroten.
“De tijd besteed aan sociale media en het geloof in complottheorieën zijn positief gecorreleerd met de prestaties van deepfake-detectie”, vertelde de hoofdauteur van het onderzoek, Ewout Nas, aan PsyPost . “Over het algemeen worden deepfake-video’s realistischer en moeilijker te herkennen. Je kunt niet meer automatisch alles geloven wat je op videobeelden ziet.”
Bronnen