De zegeningen en dreigingen van AI-bestuurde nepvideos

Met de recente ontwikkelingen in artificial intelligence (AI) kunnen we nu al videos van mensen maken – de zogenoemde ‘deepfakes’ – die niet meer van echt te zijn onderscheiden. Althans, niet door mensen. Dus zijn er al AI-algoritmes die helpen om nepvideos te herkennen. 

Maar met al die – terechte – bezwaren en negatieve gevoelens zou je bijna vergeten dat nepvideo ook iets goeds kan zijn en de wereld beter en interessanter kan maken. De mogelijkheden van AI-gestuurde video zijn eindeloos en enorm inspirerend.

Wie van de vier is de echte Obama?

De video You Won’t Believe What Obama Says In This Video geeft je een idee hoe ver de AI-ontwikkelingen al gevorderd zijn. Nu zegt de ‘Obama’ in deze video een paar rare – maar af en toe ook ware – dingen en is zijn stem niet helemaal Barack. Dus deze video is snel te herkennen als nep.

Maar in de TED talk Fake videos of real people — and how to spot them toont Supasorn Suwajanakorn vier video’s van voormalig president Obama en vraagt hij welke de echte Obama is. Antwoord: ze zijn allemaal nep! En dat was wél verrassend.

Fake Obama

De techniek achter nepvideo

Supasorn gebruikte een combinatie van AI-algoritmes en 3D-modellering om realistische videos te maken die volledig synchroon lopen met de audio. In Fake videos of real people — and how to spot them legt hij uit hoe dat werkt. Maar je kunt ook het TOPBOTS-artikel How to create a fake video of a real person lezen.

Ultrakorte uitleg: Je neemt grote hoeveelheden foto’s en videos. Daarmee kun je oneindig veel gelaatsuitdrukkingen creëren, ook in 3D. Met rimpels, oogbewegingen en alles wat het maar realistisch maakt. Vervolgens maak je een audio-opname – echt of nep – en de AI- en 3D-algoritmes ‘plakken’ de lipbewegingen die volledig synchroon lopen met de audio. Dit leidt tot een verbluffend echt resultaat.

AI die AI bestrijdt

De techniek is al zo ver dat gewone stervelingen het verschil niet meer zien tussen nepvideos en echte videos. En de techniek wordt alleen maar beter. Dus zijn er nu initiatieven die ‘deepfakes’ moeten detecteren. Hoe sneller hoe beter, want het kwaad is snel geschied met de razendsnelle verspreiding op social media.

Het doel van de AI Foundation is om tools te maken die ons allemaal beschermen tegen de risico’s van AI. Zo werkt Supasorn aan Reality Defender, een browser plugin die deepfakes herkent en dat direct meldt.

De mooiste toepassingen met nepvideo

Nepvideo is – zoals met alle technologie – ontzettend krachtig voor zowel kwaadwillende als goedbedoelde toepassingen. Je kunt er mensen mee manipuleren en op het verkeerde been zetten voor politiek of financieel gewin. Maar je kunt er ook een beleving mee creëren die een diepe indruk maakt.

Supasorn was geïnspireerd door een ‘live’ interactie met een Holocaust-slachtoffer. De beelden van overlevenden Eva Schloss and Pinchas Gutter zijn opgenomen in een studio. In het Museum of Jewish Heritage kun je vragen stellen aan deze ‘personas’ en dat is erg indrukwekkend.

Toen Supasorn dit zag, dacht hij: “Kun je nog verder gaan?”. Hij fantaseert er even op los: met AI kun je interacties als dit creëren op basis van een paar foto’s en videos. Zo kun je vragen stellen aan je overleden overgrootouders of historische figuren of auteurs. Of een concert bezoeken of een selfie-moment hebben met een overleden popster.

Meer over AI- en 3D-gestuurde videotechnieken

Als je meer wilt weten over de techniek achter AI-gestuurde video’s dan verwijs ik je graag naar het TOPBOTS-artikel 4 cutting-edge AI techniques for video generation van Mariya Yao. Je krijgt daar vier samenvattingen van het laatste onderzoek in AI-videos.

Videogebruik groeit explosief op internet en de wereld van videogames, echte video en nepvideo schuift steeds meer in elkaar. Voor communicatie- en informatieprofessionals zijn dit zeer relevante ontwikkelingen die nu al plaatsvinden en waar je nu al kunt helpen met duiding en mogelijke toepassingen.


Blijf op de hoogte met de TIMAF nieuwsbrief