Door middel van het gebruik van software is het tegenwoordig mogelijk om mensen dingen te laten zeggen of doen die zij in werkelijkheid nooit hebben gezegd of gedaan. Het resultaat wordt een deepfake genoemd – een samentrekking van deep learning en fake. Hoewel deepfakes grappige toepassingen kunnen hebben, zijn er onmiskenbaar risico’s wanneer het bewerkte beeldmateriaal de indruk wekt dat het niet gaat om een fake, maar om de realiteit. Vaak wordt iemands gezicht of stem gebruikt voor een filmpje of afbeelding zonder dat daarvoor toestemming is gegeven. Die hoofdpersoon tegen wil en dank noemen wij verder het slachtoffer. In dit redactioneel verkennen wij een aantal juridische mogelijkheden en moeilijkheden voor slachtoffers van zo’n deepfake.

In beginsel staat een slachtoffer van deepfakes een groot aantal rechten ter beschikking. Zo valt het maken van een deepfake volgens het OM in beginsel onder smaad (art. 261 Sr) en laster (art. 262 Sr). Ook is het maken van een deepfake zonder toestemming van de desbetreffende persoon een inbreuk op het portretrecht en daarmee onrechtmatig. Als iemand een redelijk belang heeft om publicatie van zijn of haar portret tegen te houden – wat bij een deepfake al snel het geval zal zijn – kan diegene laten verbieden dat de deepfake in kwestie openbaar wordt gemaakt (art. 3:296 BW). Bij een inbreuk kan dan schadevergoeding worden geëist, bijvoorbeeld als er sprake is van reputatieschade. Ook de Algemene verordening gegevensbescherming (AVG) staat aan slachtoffers ter beschikking: iemand mag niet zomaar persoonsgegevens – daaronder vallen ook foto’s, video’s en stemgeluid – verwerken (zie bijvoorbeeld: Rb. Midden-Nederland 9 januari 2020, ECLI:NL:RBMNE:2020:24). In geval van schade kun je op basis van artikel 82 AVG schadevergoeding vorderen voor alle geleden materiële en immateriële schade.

Op het eerste gezicht lijkt het slachtoffer van een deepfake daarmee beschikking te hebben over genoeg juridische mogelijkheden. Toch ligt het niet zo eenvoudig. Gegeven dat het slachtoffer al een idee heeft tegen wie de vordering moet worden ingesteld – en dat zal in sommige gevallen nog niet zo gemakkelijk zijn – geldt dat de gedeepfakete persoon zal moeten aantonen dat er sprake is van een fake. Maar hoe bewijs je dat?

In de civiele procedure draagt de eiser het bewijsrisico (art. 150 Rv): het slachtoffer zal dus moeten bewijzen dat er sprake is van een deepfake. Hoe beter de deepfake, hoe lastiger dat wordt. In dit verband is het alarmerend dat een deepfake binnen enkele jaren niet meer met het blote oog te onderscheiden zal zijn van de realiteit. Hoe kun je dan nog aantonen dat die onwelgevallige woorden niet uit jouw mond zijn gekomen? Gelukkig bieden soms zogenoemde deepfake detection tools een oplossing. Bedrijven zoals Microsoft hebben programma’s ontwikkeld waarmee op basis van softwareanalyse een score kan worden gegeven van de waarschijnlijkheid dat een afbeelding op basis van kunstmatige intelligentie tot stand is gekomen. Maar verwacht wordt dat er altijd deepfakes zullen blijven bestaan die dit type software niet herkent. Er blijven tal van situaties denkbaar waarin het bijzonder lastig, zo niet onmogelijk, zal zijn om te bewijzen dat er sprake is van een deepfake.

Het bewijsrecht lijkt op termijn in de weg te staan aan een effectieve rechtsbescherming tegen deepfakes. Zou het niet een goed idee zijn om af te wijken van de standaard bewijsverdeling, bijvoorbeeld door een omkering van de bewijslast? Gedaagde moet dan bewijzen dat er geen sprake is van een deepfake. Toch lijkt ook dat geen aantrekkelijke oplossing. Het is dan wel heel gemakkelijk om onwelgevallige ‘echte’ foto’s en video’s te verwijderen. In het geval van bijvoorbeeld politici is dat onwenselijk. Een eenvoudige oplossing ligt niet voorhanden. Wel is het volgens ons van belang nu al goed na te denken over de juridische problemen voor slachtoffers van deepfakes. De vraag hoe het recht moet omgaan met deepfakes is een vraag die vermoedelijk alleen maar aan belang zal winnen. Het is tijd om na te denken over een passend antwoord.

 

Dit redactioneel van Minke Reijneveld & Tim van Polanen is verschenen in Ars Aequi maart 2021.