OpenAI heeft een flinke stap gezet met een nieuw AI-model, genaamd Sora, dat tekst kan omzetten in video's. Het wordt nu nog getest, maar de resultaten zijn veelbelovend: de beelden zijn nauwelijks van echt te onderscheiden. Gevaar is dat er héél véél nepvideo's gemaakt gaan worden.
Linda Kool, onderzoekscoördinator digitale technologie van het Rathenau Instituut, legt uit
aan RTL Nieuws: "Er was al een probleem. Als je al een deepfake had, kon die makkelijk verspreid worden via sociale media. De rem was nog dat het best ingewikkeld was om te maken. En juist daar zet generatieve AI de volgende stap." Het is straks nog maar één druk op de knop en je hebt een nepvideo. "Denk aan meer deepfake pornografie, meer nepnieuws. Er staat ons een golf aan desinformatie te wachten", denkt ze.
De techniek is zeker nog niet perfect, maar de ontwikkeling gaat razendsnel. "Nu heeft het nog wel wat moeite met bepaalde natuurkundige zaken. Of als iemand een hap uit een koekje neemt, dat het koekje daarna weer heel is. Maar in een half jaar tijd is het echt een stuk vloeiender en kwalitatief beter geworden", zegt Kool.
Tijd voor actie dus. Experts vinden dat er regelgeving moet komen en meer controle om te voorkomen dat de AI-technologie uit de hand loopt. Bedrijven als Microsoft, OpenAI en Google hebben al een samenwerking aangekondigd om misbruik van AI bij de verkiezingen tegen te gaan. Hopelijk gaat dat helpen, want dit jaar gaat bijna de helft van de wereldbevolking naar de stembus. Die moeten niet door kwaadwillenden met desinformatie worden overspoeld.