controleren of het echt of onecht is steeds moeilijker
'Het aantal mensen dat
nepvideo's produceert
tegenover de mensen die
ze detecteren is 100 tegen 1'
15
van algoritmes en gezichtsanaly
ses. Met 3DUniversum maakt hij
nu ook serieus werk van het her
kennen van nep. Zo bieden ze een
'detectietool' aan die je meteen
vertelt of een foto echt is.
De behoefte daaraan is groot.
Want wat ooit alleen was wegge
legd voor Hollywood is nu op ie
dere telefoon mogelijk: gezichten
wisselen, maskers opzetten, ie
mand anders wat raars laten roe
pen - manipulatie is beschikbaar
voor de massa, bijvoorbeeld via al
lerlei apps op je telefoon. Gevers:
,,Het gaat zó snel: iedereen kan
het nu, en het is met het blote oog
niet meer te detecteren.''
Ter illustratie presenteert Ge
vers' collega Sezer Karaoglu een
paar dia's met portretfoto's. Som
mige mensen op de foto's bestaan,
anderen zijn gefabriceerd. ,,Welke
zijn echt? Kun je dat zien?'' Het
eerlijke antwoord: amper. Wie in
zoomt, ziet misschien een rafel
randje langs het gezicht, een ver
keerde schaduw of een onzuiver
gebit, maar dan moet je heel goed
opletten.
En dan zijn dit nog slechts
foto's. De techniek gaat even zo
snel met video's, en straks ook ge
luid. Gevers: ,,En hier, kijk. Dit is
wat nu ontwikkeld wordt:
iemand danst, de camera filmt het
en op beeld lijkt het alsof het to
taal iemand anders is die be
weegt.'' Magie.
Zo kun je van gezicht wisselen,
jezelf een paar generaties ouder
laten lijken en je baas of buurman
dingen laten zeggen en doen die
het daglicht niet kunnen verdra
gen. Met potentieel ontregelende
gevolgen, beseffen Karaoglu en
Gevers. Wie wereldleiders oor
logstaal in de mond legt, kan zo
maar een rel ontketenen, of erger.
Sezer: ,,En als je een relatief onbe
kend iemand iets raars laat zeggen
is dat ook gevaarlijk. Als je een
video toont van een moord die
nooit gepleegd is, kan dat tot rel
len leiden, het kan problemen
geven.''
En dat gebeurt soms al. Zie
DeepNude van 'Alberto'. De offi
ciële app mag dan verwijderd zijn,
de code en database slingeren on
line nog rond, dus er duikt vast
weer een variant op, binnenkort.
Daarbij is nep niet altijd onschul
dig en dus onschadelijk. Noem
het het Ajax-effect: als je driemaal
daags een reclame ziet over Ajax-
schoonmaakmiddel (sterker dan
vuil!) geloof je het misschien niet
meteen, maar het zaadje wordt
wel geplant.
Zo was de Amerikaanse politica
Nancy Pelosi heus niet dronken,
zoals een massaal gedeelde nepvi-
deo onlangs nog wel suggereerde.
Maar helemaal zonder effect is
deze desinformatie niet: ,,Zulke
manipulatie en framing zijn feite
lijk de basis van propaganda'',
zegt onderzoeker Pim Haselager
(Radboud Universiteit Nijme
gen). Haselager bestudeert de
maatschappelijke gevolgen van
kunstmatige intelligentie, bekijkt
het vooral vanuit de ethiek: ,,Bij
die Pelosi-video is de emotionele
reactie al opgewekt bij de kijker,
het gevoel is veroorzaakt. En het is
lastig strijden tegen gevoelens.''
De mogelijk ontwrichtende ge
volgen van nepvideo's in verkie-
zingscampagnes staan buiten kijf.
Maar ook in kleine kring kan het
nare consequenties hebben, bijvoor
beeld als je niet zeker weet of die
leuke datingpartner uit de app über
haupt wel bestaat.
Daarom maakt Gevers nu ook seri
eus werk van het herkennen van
nepbeelden, met de 'detectietool'. En
Adobe - het concern achter Photo
shop - werkt eveneens aan een in
strument dat trucage detecteert en
watermerkt. In de VS klagen onder
zoekers ondertussen dat de stort
vloed aan nep de detectiecapaciteit
overschaduwt. ,,We zijn kansloos'',
zei Hany Farid, hoogleraar aan de
Universiteit van Berkeley in Califor-
nië vorige maand. ,,Het aantal men
sen dat zulke video's produceert te
genover de mensen die ze detecteren
is 100 tegen 1.'' Dat klinkt als vechten
tegen een enorme virtuele bierkaai.
Potentieel gevaarlijk
Is het dan alleen maar kommer en
kwel als het gaat om gezichtsanaly
ses en beeldmanipulatie? Zeker niet.
DeepNude, nepvideo's en andere
kwaadaardige voorbeelden zijn
slechts de zure vruchten van men
sen die de techniek met slechte in
tenties gebruiken, stelt Gevers. ,,Er
worden nu boeken geschreven met
hulp van kunstmatige intelligentie,
laatst is er een schilderij geveild bij
Christie's, dat bracht vier ton op. Ge
maakt met algoritmes! Het opsporen
van kanker op scans met hulp van
vergelijkbare techniek doet het zo
veel beter dan het menselijk oog. En
de zelfrijdende auto: als die zich
goed ontwikkelt, dan wordt het le
ven zoveel mooier.''
En dan moet het beste nog komen,
denkt de hoogleraar. Een terrein
waar ze in Amsterdam nu mee expe
rimenteren is de psychologie, trau
maverwerking bijvoorbeeld. Veel wil
Gevers er niet over kwijt. ,,Het staat
nog in de kinderschoenen, het is
glad ijs. Maar je kunt mensen 'tot le
ven wekken' met deze techniek.
Neem rouwverwerking: hoe bijzon
der kan het zijn om met je overleden
vader te spreken, of met je zus die
heel vroeg gestorven is? Een andere
toepassing is dat je Anne Frank zelf
een rondleiding kan laten geven in
Het Achterhuis, om maar iets te noe
men. Maar het is heel precair: het
luistert heel nauw wat je wel en niet
kan zeggen en doen.''
Om alle ontwikkelingen rond
beeldmanipulatie in goede banen te
leiden, moeten wettenmakers en
toezichthouders aan de slag, vindt de
hoogleraar. ,,Want de techniek is po
tentieel gevaarlijk.''
D66-Tweede Kamerlid Kees Ver
hoeven erkent dat: ,,Nepvideo's zijn
een vorm van desinformatie, maar
dan nog veel geraffineerder dan we
gewend zijn. Wetten en regels over
smaad en portretrecht moeten we
echt toepassen op dit nieuwe gebied.
Al is de sleutel ook bewustwording.
Zoals we weten dat je niet elk bericht
kunt geloven uit een roddelblad,
moet je ook weten dat niet elke foto
of video echt is.'' Haselager: ,,De
waarde van informatie daalt door
zulke ontwikkelingen - alles kan
waar zijn, of juist niet.''
GO ZATERDAG 3 AUGUSTUS 2019
Voorbeeld van
beeldmanipulatie.
Hoe van een wereld
leider een alcoholist
kan worden ge
maakt.
ORIGINELE FOTO OLIVIER
LABAN-MA, BEELDBEWERKING
MARK REIJNTJENS