Beveiliging nieuws

Onze partners

Securitas

Genetec

Connect Security

CSL

HID

Dahua

Alphatronics

PG Security Systems

Lobeco

MPL

Secusoft

SOBA

Akuvox

RoSecure

Milestone

VAIBS

CDVI

Hikvision

G4S

SMC Alarmcentrale

VideoGuard

SmartCell

Trigion

Ajax Systems

Centurion

Top Security

Traka ASSA ABLOY

Koninklijke Oosterberg

DZ Technologies

Add Secure

Service Centrale Nederland

Bosch Security Systems

Unii

Oribi ID Solutions

NetworxConnect

HD Security

Seris

Crown Security Services

Eagle Eye Networks

Sequrix

Nimo Drone Security

Multiwacht

Brivo

Paxton

Gold-IP

Avigilon Alta

Hanwha Vision Europe

OSEC

VBN

Nimo Dog Security

Bydemes

Regio Control Veldt

Paraat

SmartSD

Eizo

Explicate

ASIS

EAL

VVNL

Uniview

20face

i-Pro

Masset Solutions

VEB

Dero Security Products

Advancis

IDIS

ARAS

De Beveiligingsjurist

GFT

Kiwa

Seagate

NIBHV

ASSA ABLOY

Alarm Meldnet

Optex

JMB Groep

CardAccess

BHVcertificaat.online

ADI

Nenova

2N

Nieuwe methodes NFI en UvA voor herkennen deepfakes

16 november 2022
Redactie
17:46

Deepfakes, gemanipuleerde video’s, zijn niet meer weg te denken. Van nepsollicitaties: zogenaamde mensen die online een gesprek aangaan met bedrijven en zo bedrijfsinformatie binnen hengelen tot pornovideo’s waar het hoofd van een bekende Nederlander op is geplakt. Het NFI ontwikkelde hiervoor een detectiesysteem.

Het misbruik van deepfakes neemt volgens het NFI nog altijd toe. Het Nederlands Forensisch Instituut (NFI) en de Universiteit van Amsterdam (UvA) doen al enkele jaren onderzoek naar dit zorgelijke fenomeen. “We hebben nu een goede combinatie van nieuwe methodes die ons helpt bij de detectie van deepfakes”, zegt Zeno Geradts, forensisch onderzoeker bij het NFI en bijzonder hoogleraar aan de UvA.

Praktijk
Het NFI heeft inmiddels enkele zaken gedaan waar deepfakes in zijn onderzocht. Het gaat dan om video’s waarbij lichamen en gezichten van personen gemanipuleerd zijn. De verwachting is dat dit zal toenemen. “Zorgelijk”, vindt Geradts. Ook Europol en de FBI waarschuwen voor het misbruik van deepfakes. Er bestaan zelfs websites waar je het gezicht van bekendheden op pornovideo’s kunt zetten, alsof het de normaalste zaak van de wereld is. Ook zijn er voorbeelden van fraude, zoals een deepfake van een manager die een werknemer de opdracht geeft om een aanzienlijk geldbedrag over te maken.

Nieuwe methodes
Deskundigen van het NFI zijn de afgelopen drie jaar steeds beter geworden in het detecteren van deepfakes. Daarvoor gebruiken ze een checklist voor manuele vergelijkingen. Ze kijken onder meer naar inconsistenties in scherpte, soms zijn de tanden vaag en de lippen scherp. Of ze kijken naar kenmerken als moedervlekken. Zitten die altijd op dezelfde plek? Maar ze hebben nu ook enkele nieuwe methodes aan hun gereedschapskist toegevoegd. “Juist de combinatie van tools helpt bij het herkennen van deepfakes, die steeds beter worden”, stelt Geradts “Je moet bovendien het totaalplaatje bekijken. Dus zowel het beeld als de audio, het spraakdeel. Synthetische stemmen zijn namelijk erg moeilijk realistisch na te maken.”

Tijd en plaats van video bepalen
Een van de nieuwe methodes voor de analyse van deepfakes is de ‘rolling shutter-methode’, ofwel gebruikmaken van de elektrische netwerkfrequentie om zo de tijd en plaats van de video te achterhalen. We konden dit al uit geluidsbestanden halen, maar nieuw is dat dit ook uit video kan. “De elektriciteit uit een stopcontact bij mensen thuis heeft een frequentie van 50 hertz. Die is niet constant en varieert tussen ongeveer tussen de 49.5 en 50.5”, legt Geradts uit. “Dit is binnen heel Europa hetzelfde, de elektriciteitsnetwerken zijn namelijk op elkaar aangesloten. Het patroon daarvan genereert een soort tijdlijn: daarmee kunnen we bepalen wanneer een video is opgenomen.”

Zachte flikkering
Aan het licht op de achtergrond van een video is te zien dat er iets in de opname niet klopt. Bijvoorbeeld dat de video op een ander moment is opgenomen dan geclaimd wordt. Hoe werkt dat nou? De camera van een telefoon is opgedeeld in allemaal pixels, losse sensoren. Dat 50 hertz-signaal, dat bijvoorbeeld door een lamp in iemand zijn kamer gaat, kunnen de onderzoekers nu goed uit het beeld halen. “Dat konden we eerst niet”, laat de onderzoeker weten. “Als je een lamp op achtergrond hebt, kun je het 50 hertz-signaal als zachte flikkering door de video zien. Daarmee kunnen we achterhalen wanneer die is opgenomen, bijvoorbeeld in de nacht of overdag. Of dat de video een maand geleden is opgenomen, terwijl geclaimd wordt dat het gisteren was.” Het NFI en de UvA hebben over deze methode een wetenschappelijk artikel gepubliceerd. In theorie kunnen de onderzoekers ook bepalen of een video in Parijs of in Amsterdam is opgenomen, maar die methode moeten ze nog valideren.

Vingerafdruk van de camera
Dan is er nog een methode: Photo Response Non Uniformity (PRNU). Eigenlijk is dit een soort vingerafdruk van de camera van de telefoon. Daarmee is te bepalen met welke camera de beelden zijn gemaakt. Geradts licht toe wat een PRNU-patroon is. “Als je op een camerasensor van een specifieke telefoon een gelijke hoeveelheid licht schijnt, reageert elke individuele pixel net een beetje anders. Daar liggen kansen voor de deepfake-detectie. De pixels geven namelijk een bepaald patroon. Dat patroon kunnen we vervolgens vergelijken met het patroon van de deepfake. Past het bij de ‘vingerafdruk’ van een specifieke camera? “Zo is het mogelijk om te achterhalen van welk toestel de beelden afkomstig zijn. Als we weten van welke camera geclaimd wordt dat de beelden afkomstig zijn, kunnen we dat nu dus goed onderzoeken”, zegt Geradts.

Combinatie van methodes
De kracht van goede deepfake-detectie zit in het gebruik van een combinatie van klassieke methodes en kunstmatige intelligentie. Voor het spraakdeel van deepfakes bestaat nu ook een nieuwe methode. De wetenschappelijke publicatie daarover is bijna klaar. Als iemand een spreker heeft nagemaakt, is er nu ook een tool om dat te achterhalen. Soms kun je dat al horen, maar je kunt het nu ook zichtbaar maken. “Door gebruik te maken van algoritmes voor explainable AI, kunnen we nu visualiseren of het geluid gemanipuleerd is. En het dus een deepfake voice is”, aldus Geradts. Als de stem niet gemanipuleerd is, zie je een gekleurd vlak. Als er wel sprake is van manipulatie, heeft het vlak duidelijk patronen . Dit zal overigens door een deskundige worden beoordeeld voordat het gebruikt kan worden als (aanvullend) bewijsmateriaal.

Hoewel deepfakes steeds beter en realistischer worden, bestaan er dus goede tools om een goede deepfakedetectie te kunnen doen. “We zullen wel steeds opnieuw onderzoek moeten blijven doen en nieuwe methodes ontdekken om criminelen voor te blijven”, besluit Geradts. “Het blijft een kat- en muisspel.”

Deel dit artikel via:

Vlog 2

Premium partners

Suricat

MPL

Videoguard

Seagate

Wordt een partner