controleren of het echt of onecht is steeds moeilijker 'Het aantal mensen dat nepvideo's produceert tegenover de mensen die ze detecteren is 100 tegen 1' 15 van algoritmes en gezichtsanaly ses. Met 3DUniversum maakt hij nu ook serieus werk van het her kennen van nep. Zo bieden ze een 'detectietool' aan die je meteen vertelt of een foto echt is. De behoefte daaraan is groot. Want wat ooit alleen was wegge legd voor Hollywood is nu op ie dere telefoon mogelijk: gezichten wisselen, maskers opzetten, ie mand anders wat raars laten roe pen - manipulatie is beschikbaar voor de massa, bijvoorbeeld via al lerlei apps op je telefoon. Gevers: ,,Het gaat zó snel: iedereen kan het nu, en het is met het blote oog niet meer te detecteren.'' Ter illustratie presenteert Ge vers' collega Sezer Karaoglu een paar dia's met portretfoto's. Som mige mensen op de foto's bestaan, anderen zijn gefabriceerd. ,,Welke zijn echt? Kun je dat zien?'' Het eerlijke antwoord: amper. Wie in zoomt, ziet misschien een rafel randje langs het gezicht, een ver keerde schaduw of een onzuiver gebit, maar dan moet je heel goed opletten. En dan zijn dit nog slechts foto's. De techniek gaat even zo snel met video's, en straks ook ge luid. Gevers: ,,En hier, kijk. Dit is wat nu ontwikkeld wordt: iemand danst, de camera filmt het en op beeld lijkt het alsof het to taal iemand anders is die be weegt.'' Magie. Zo kun je van gezicht wisselen, jezelf een paar generaties ouder laten lijken en je baas of buurman dingen laten zeggen en doen die het daglicht niet kunnen verdra gen. Met potentieel ontregelende gevolgen, beseffen Karaoglu en Gevers. Wie wereldleiders oor logstaal in de mond legt, kan zo maar een rel ontketenen, of erger. Sezer: ,,En als je een relatief onbe kend iemand iets raars laat zeggen is dat ook gevaarlijk. Als je een video toont van een moord die nooit gepleegd is, kan dat tot rel len leiden, het kan problemen geven.'' En dat gebeurt soms al. Zie DeepNude van 'Alberto'. De offi ciële app mag dan verwijderd zijn, de code en database slingeren on line nog rond, dus er duikt vast weer een variant op, binnenkort. Daarbij is nep niet altijd onschul dig en dus onschadelijk. Noem het het Ajax-effect: als je driemaal daags een reclame ziet over Ajax- schoonmaakmiddel (sterker dan vuil!) geloof je het misschien niet meteen, maar het zaadje wordt wel geplant. Zo was de Amerikaanse politica Nancy Pelosi heus niet dronken, zoals een massaal gedeelde nepvi- deo onlangs nog wel suggereerde. Maar helemaal zonder effect is deze desinformatie niet: ,,Zulke manipulatie en framing zijn feite lijk de basis van propaganda'', zegt onderzoeker Pim Haselager (Radboud Universiteit Nijme gen). Haselager bestudeert de maatschappelijke gevolgen van kunstmatige intelligentie, bekijkt het vooral vanuit de ethiek: ,,Bij die Pelosi-video is de emotionele reactie al opgewekt bij de kijker, het gevoel is veroorzaakt. En het is lastig strijden tegen gevoelens.'' De mogelijk ontwrichtende ge volgen van nepvideo's in verkie- zingscampagnes staan buiten kijf. Maar ook in kleine kring kan het nare consequenties hebben, bijvoor beeld als je niet zeker weet of die leuke datingpartner uit de app über haupt wel bestaat. Daarom maakt Gevers nu ook seri eus werk van het herkennen van nepbeelden, met de 'detectietool'. En Adobe - het concern achter Photo shop - werkt eveneens aan een in strument dat trucage detecteert en watermerkt. In de VS klagen onder zoekers ondertussen dat de stort vloed aan nep de detectiecapaciteit overschaduwt. ,,We zijn kansloos'', zei Hany Farid, hoogleraar aan de Universiteit van Berkeley in Califor- nië vorige maand. ,,Het aantal men sen dat zulke video's produceert te genover de mensen die ze detecteren is 100 tegen 1.'' Dat klinkt als vechten tegen een enorme virtuele bierkaai. Potentieel gevaarlijk Is het dan alleen maar kommer en kwel als het gaat om gezichtsanaly ses en beeldmanipulatie? Zeker niet. DeepNude, nepvideo's en andere kwaadaardige voorbeelden zijn slechts de zure vruchten van men sen die de techniek met slechte in tenties gebruiken, stelt Gevers. ,,Er worden nu boeken geschreven met hulp van kunstmatige intelligentie, laatst is er een schilderij geveild bij Christie's, dat bracht vier ton op. Ge maakt met algoritmes! Het opsporen van kanker op scans met hulp van vergelijkbare techniek doet het zo veel beter dan het menselijk oog. En de zelfrijdende auto: als die zich goed ontwikkelt, dan wordt het le ven zoveel mooier.'' En dan moet het beste nog komen, denkt de hoogleraar. Een terrein waar ze in Amsterdam nu mee expe rimenteren is de psychologie, trau maverwerking bijvoorbeeld. Veel wil Gevers er niet over kwijt. ,,Het staat nog in de kinderschoenen, het is glad ijs. Maar je kunt mensen 'tot le ven wekken' met deze techniek. Neem rouwverwerking: hoe bijzon der kan het zijn om met je overleden vader te spreken, of met je zus die heel vroeg gestorven is? Een andere toepassing is dat je Anne Frank zelf een rondleiding kan laten geven in Het Achterhuis, om maar iets te noe men. Maar het is heel precair: het luistert heel nauw wat je wel en niet kan zeggen en doen.'' Om alle ontwikkelingen rond beeldmanipulatie in goede banen te leiden, moeten wettenmakers en toezichthouders aan de slag, vindt de hoogleraar. ,,Want de techniek is po tentieel gevaarlijk.'' D66-Tweede Kamerlid Kees Ver hoeven erkent dat: ,,Nepvideo's zijn een vorm van desinformatie, maar dan nog veel geraffineerder dan we gewend zijn. Wetten en regels over smaad en portretrecht moeten we echt toepassen op dit nieuwe gebied. Al is de sleutel ook bewustwording. Zoals we weten dat je niet elk bericht kunt geloven uit een roddelblad, moet je ook weten dat niet elke foto of video echt is.'' Haselager: ,,De waarde van informatie daalt door zulke ontwikkelingen - alles kan waar zijn, of juist niet.'' GO ZATERDAG 3 AUGUSTUS 2019 Voorbeeld van beeldmanipulatie. Hoe van een wereld leider een alcoholist kan worden ge maakt. ORIGINELE FOTO OLIVIER LABAN-MA, BEELDBEWERKING MARK REIJNTJENS

Krantenbank Zeeland

Provinciale Zeeuwse Courant | 2019 | | pagina 63