Deepfakes: Een privacyvriendelijke oplossing voor de ontwikkeling van gezichtsherkenning?

Share
Share on linkedin
Share on facebook
Share on google
Share on twitter

Voor de ontwikkeling van gezichtsherkenningssystemen worden duizenden portretten gebruikt van personen die hier niet altijd toestemming voor hebben gegeven. Met deepfaketechnologieën kunnen portretten gecreëerd worden van niet-bestaande mensen. Mogelijk kunnen deze deepfakeportetten een oplossing bieden voor privacygerelateerde problemen bij de ontwikkeling van gezichtsherkenningssystemen.

Bij gezichtsherkenningssystemen wordt meestal gedacht aan surveillancecamera’s en het uitoefenen van meer controle over de burger. Inmiddels is de gezichtsherkenningstechnologie al zodanig geïntegreerd in het dagelijks leven dat deze ook wordt ingezet bij minder dystopische zaken zoals zelfrijdende auto’s of toegangspoorten voor de paspoortcontrole bij vliegvelden.

Voor de ontwikkeling van gezichtsherkenningstechnologieën wordt gebruikgemaakt van zelflerende algoritmes. Om deze algoritmes te ontwikkelen worden enorm veel datasets, bestaande uit honderdduizenden portretten van personen, in het algoritme ingevoerd zodat het systeem uiteindelijk een onderscheid kan maken tussen verschillende voorwerpen en gezichten. De wijze waarop de foto’s voor de trainingssets worden vergaard, is vaak niet helemaal AVG-proof. Zo kwam in 2019 aan het licht dat de fotobewerkapp FaceApp foto’s van gebruikers mogelijk doorverkocht aan ontwikkelaars van dergelijke algoritmes. Daarnaast worden er regelmatig willekeurige foto’s van het internet geplukt om het algoritme te voeden.

In een artikel in de Volkskrant van 12 mei 2021 wordt een meer privacyvriendelijke ontwikkeling van gezichtsherkenningstechnologieën voorgesteld. De suggestie is om als alternatief voor foto’s van echte mensen, gebruik te maken van foto’s van niet-bestaande mensen gecreëerd door deepfaketechnologieën. Doordat het foto’s van niet-bestaande mensen betreft, kan er geen sprake zijn van een persoonsgegeven in de zin van de AVG en dus ook geen sprake van inbreuk op het recht op privacy.

In deze blog staat de volgende vraag centraal: ‘Kunnen door deepfakes gecreëerde portretten zorgen voor een meer privacyvriendelijke ontwikkeling van gezichtsherkenningstechnologieën?’. Hiervoor is het van belang om eerst nader in te gaan op de werking van de technologie achter de deepfakeprogramma’s.

Zelflerende algoritmes

Deepfakes worden gecreëerd met behulp van zelflerende algoritmes. Op basis van ingevoerde trainingsdatasets – portretten van mensen – kunnen zelflerende algoritmes een uitkomst afleiden. Met behulp van de ingevoerde data creëert het algoritme verbanden en patronen door correlaties te identificeren in de aangereikte trainingsdata. Hoe groter de trainingsdataset, hoe nauwkeuriger de uitkomst. Dit is meteen ook een nadeel bij het gebruik van zelflerende algoritmes, aangezien de uitkomst sterk afhankelijk is van de hoeveelheid en het soort data die worden aangereikt.

Een verder ontwikkelde vorm van zelflerende algoritmes, die steeds meer bij deepfakes wordt toegepast, is het zogeheten deep learning algoritme. Deze variant bestaat uit een artificieel neuraal netwerk en werkt op vrijwel dezelfde manier als het menselijke brein. De deep learning algoritmes kunnen over meerdere lagen verbanden leggen en gegevens structureren, waardoor het algoritme zelf fouten kan oppikken en verbeteren zonder menselijke tussenkomst. Het systeem is dan ook in staat zichzelf steeds verder te ontwikkelen. Hierdoor heeft een deepfakeprogramma dat gebaseerd is op deep learning algoritmes een aanzienlijk kleinere trainingsdataset nodig om goed te functioneren. Dit kan een gunstige uitwerking hebben vanuit privacyrechtelijk perspectief.

Deepfakes als privacyvriendelijke oplossing

Rondom het gebruik van deepfakes hangt een negatief imago. In het nieuws worden deepfakes voornamelijk geassocieerd met desinformatie – denk aan neppe filmpjes van politici waarin bepaalde uitspraken worden gedaan – en wraakporno.

Zoals al werd opgemerkt, is een portret op grond van de AVG een persoonsgegeven. Dit maakt dat voor het gebruik van een portret sprake moet zijn van toestemming van de geportretteerde. Als in de trainingsdatasets door deepfakes gecreëerde foto’s worden gebruikt van niet-bestaande mensen, zou dat er inderdaad voor kunnen zorgen dat er geen probleem meer is met het toestemmingsvereiste van de AVG.

Men kan zich hier wel bij afvragen op basis van welke trainingsdatasets de foto’s door de deepfakesoftware geproduceerd worden. Stel dat de aanbieder van de deepfake foto’s het algoritme heeft gevoed met foto’s van echte mensen, dan levert dat in principe een privacyinbreuk op aan de zijde van de aanbieder. Daarmee wordt het probleem van de privacyinbreuk doorgeschoven van de ontwikkelaar van de gezichtsherkenningssoftware naar degene die de door middel van deepfaketechnologie geproduceerde foto’s levert aan de ontwikkelaar. De aanbieder van de deepfake foto’s zou dus van elke geportretteerde toestemming moeten vragen voor het gebruik van het portret voor de ontwikkeling van de deepfake foto’s. Vanzelfsprekend kan dit in de praktijk lastig uitvoerbaar zijn.

De uitkomst kan wel anders zijn wanneer de deepfake foto’s worden gegenereerd door middel van deep learning algoritmes. Doordat hier een veel kleinere dataset nodig is om het systeem te voeden, is het theoretisch gezien ook makkelijker om personen te vinden die expliciet toestemming geven om hun portretten te gebruiken voor de ontwikkeling van het deep learning algoritme. Waar het op de ‘oude’ manier vrijwel onmogelijk is om te voldoen aan de AVG, heeft de ontwikkelaar door het gebruik van deepfake foto’s gecreëerd door deep learning algoritmes wel de mogelijkheid om AVG-compliant te zijn.

Darinka Zarić

Darinka Zarić

Darinka Zarić is jurist bij The Privacy Factory. Nieuwe juridische vraagstukken die ontstaan in een gedigitaliseerde samenleving spreken haar enorm aan. Met name op het gebied van privacyrecht en de inzet van big data. Momenteel volgt zij aan de Vrije Universiteit Amsterdam de master Internet, intellectuele eigendom en ICT.

Volg onze publicaties

cookie

Wij gebruiken alleen functionele en analytische cookies om u een optimale gebruikerservaring te bieden op onze website. Onze cookies verzamelen geen persoonsgegevens. Meer informatie.