Wie een deepfake-video bekijkt, heeft daarna een negatiever beeld van de persoon in het gemanipuleerde filmpje. Voor de meesten zijn de beelden niet meer van echt te onderscheiden, blijkt uit onderzoek van de Universiteit van Amsterdam (UvA).
In deepfakes kun je met behulp van technologie beelden zo manipuleren dat het lijkt alsof politici iets anders zeggen dan wat ze in werkelijkheid hebben gezegd. Onderzoekers van de UvA maakten een deepfake van voormalig CDA-leider Sybrand Buma. Ze lieten de video aan 140 mensen zien. Een kleine 140 anderen kregen het originele filmpje te zien.
De deepfake was behoorlijk geslaagd: slechts 8 van de 140 kijkers vermoedden dat de beelden gemanipuleerd waren. "En deze was niet eens perfect, je zag af en toe dat de lippen gek bewogen. Het is opmerkelijk dat mensen er vol intrappen," aldus UvA-onderzoeker Tom Dobber tegen de NOS.
De groep, die de deepfake zag, had na afloop een negatiever beeld van de oud-politicus dan de groep die het echte filmpje had gezien. Daarna keken de onderzoekers nog naar het effect van microtargeting, het tonen van een advertentie aan een heel specifieke doelgroep, in dit geval christenen. Zij reageerden niet bijzonder heftig op het filmpje. Dat gold wel voor een nog kleinere doelgroep, die van de CDA-stemmende, gelovige christenen.
"We hebben aangetoond dat er een vrij groot effect is bij die zeer specifieke groep christenen, maar dat wisten we pas toen we het onderzoek gedaan hadden. We hadden verwacht dat alle christenen daar heftig op zouden reageren, maar dat was dus niet zo. Je kunt je afvragen of het reëel is dat deepfakes op die specifieke manier kunnen worden misbruikt," aldus Dobber.
Deepfakes kunnen een groot gevaar vormen in de strijd tegen nepnieuws. Als zelfs beelden zo gemanipuleerd worden dat ze net echt zijn, wordt het lastig om te bepalen wat waar is en wat niet. Nu is de technologie nog niet zo ver, maar de ontwikkeling gaat razend snel.