Deepfake-fraude: hoe één videocall €23,6 miljoen kostte — en waarom 93% van de bedrijven onvoorbereid is
AI & Automatisering

Deepfake-fraude: hoe één videocall €23,6 miljoen kostte — en waarom 93% van de bedrijven onvoorbereid is

Peter van Datapad23 april 20267 min leestijd

In januari 2024 maakte een finance-medewerker van Arup €23,6 miljoen over aan vijf fraudeurs. Alle 'collega's' in de videocall waren deepfakes. Slechts 7% van bedrijven is voorbereid — en op 2 augustus 2026 wordt AI-transparantie wettelijk verplicht.

In januari 2024 zat een finance-medewerker van het Britse ingenieursbureau Arup in Hongkong in een videocall met zijn CFO en vier andere collega's uit Londen. Tijdens het gesprek kreeg hij opdracht om €23,6 miljoen over te maken naar vijf Hongkongse bankrekeningen, verdeeld over 15 transacties.

Hij twijfelde. Eerder die week had hij namelijk een verdachte e-mail gekregen over een 'geheime transactie'. Maar de videocall zette die twijfel opzij: hij herkende stemmen, gezichten, manieren van praten.

Een week later ontdekte hij de waarheid. Geen van de vijf collega's in de call bestond. Alle vijf waren AI-gegenereerde deepfakes, gebouwd met openbare videobeelden van Arup-conferenties en webinars.

Dit is geen geïsoleerd incident. Dit is de nieuwe baseline van zakelijke fraude.

Waarom 2026 het jaar van deepfake-fraude wordt

Het World Economic Forum noemt generatieve AI in zijn Global Fraud Report 2026 expliciet de drijvende kracht achter een nieuwe golf van impersonatie-fraude. De cijfers zijn stevig:

  • Slechts 7% van organisaties wereldwijd is goed voorbereid op deepfake-fraude
  • 77% van bedrijven rapporteert een kleine tot significante toename in deepfake social engineering
  • 30% van enterprises zal identity-verification in isolatie als onbetrouwbaar beschouwen tegen eind 2026
  • 1 op 3 van 300 onderzochte sollicitanten bij een Pindrop-steekproef bleek volledig gefabriceerd — inclusief AI-gegenereerde CV's, gemanipuleerde credentials en deepfake-interviews

De drempel om een deepfake te maken is in 18 maanden gezakt van 'Hollywood-studio' naar 'laptop met consumer-app'. Voicecloning heeft nog maar enkele seconden audio nodig. Real-time face swaps draaien op een gewone GPU. En de fraudeurs hoeven de technologie niet eens zelf te bouwen — 'Deepfakes-as-a-Service' is een bloeiende ondergrondse markt.

De vier meest voorkomende deepfake-aanvalsvectoren in 2026

De vier aanvalsvectoren die u moet kennen

Deepfake-fraude valt in 2026 grofweg uiteen in vier categorieën. Elke categorie raakt een ander onderdeel van uw organisatie — en elke categorie vraagt om een ander type verdediging.

1. CEO- en CFO-fraude (Arup-stijl)
Fraudeurs trainen een voice clone en face swap op basis van publiek beschikbare video's: keynotes, podcasts, webinars, LinkedIn-posts. Ze starten een videocall met een finance-medewerker en forceren een 'urgent, vertrouwelijk' geld overmaken. De gemiddelde buit ligt tussen zes en acht cijfers.

2. Synthetische sollicitanten
Pindrop, Gartner en het FBI waarschuwen voor hetzelfde patroon: kandidaten solliciteren remote met een deepfake-gezicht over hun webcam. Ze passeren interviews, krijgen toegang tot bedrijfssystemen, en verdwijnen met IP of klantdata. Noord-Koreaanse IT-werkers hebben dit al op grote schaal toegepast bij Amerikaanse Fortune 500-bedrijven.

3. Leverancier- en factuurfraude via voicecloning
De boekhouder krijgt een telefoontje of voicemail van 'de leverancier' met een verzoek om bankgegevens te wijzigen. De stem klopt. Het verhaal klopt. De volgende factuur gaat naar de nieuwe — frauduleuze — rekening.

4. Identiteitsfraude met synthetische documenten
Een Nederlandse man werd vorig jaar aangehouden nadat hij met deepfakes paspoortkopieën had gefabriceerd en 46 bankrekeningen had geopend. Die rekeningen gebruikte hij vervolgens als mule-infrastructuur voor andere fraudeurs — witwassen, factuurfraude, phishing.

Waarom het MKB kwetsbaarder is dan enterprises

Grote enterprises hebben het laatste jaar fors geïnvesteerd in detectie: Pindrop Pulse, Microsoft Defender for Office 365-uitbreidingen, gespecialiseerde SOC-teams. Het MKB heeft dat niet, om drie redenen:

1. Kortere beslissingsketens. Bij een 15-koppig bedrijf is er geen vier-ogen-principe voor een overboeking. De CFO is vaak ook de boekhouder. Één verkeerd oordeel = één directe uitbetaling.

2. Vertrouwen in plaats van proces. MKB draait op persoonlijke relaties. 'Als Jan het zegt, klopt het.' Deepfakes exploiteren precies dat vertrouwen.

3. Geen training. Grote banken en accountants trainen medewerkers met tabletop-oefeningen en simulaties. Het MKB heeft zelden een budget voor security-training. Medewerkers hebben nooit een deepfake gezien en weten niet waar ze op moeten letten.

Dit is geen kritiek, dit is de realiteit. Maar het betekent wel dat de eerste deepfake-aanval op uw bedrijf waarschijnlijk ook de laatste is die u overleeft zonder significante schade.

Wat de EU AI Act op 2 augustus 2026 verandert (en wat niet)

Op 2 augustus 2026 wordt Artikel 50 van de EU AI Act afdwingbaar. Dat artikel legt twee verplichtingen op:

  • Aanbieders van generatieve AI moeten output markeren in een machine-leesbaar formaat (watermerk)
  • Deployers die deepfakes inzetten moeten bij eerste interactie duidelijk maken dat de content kunstmatig is

Wat dit wél oplost: legitieme toepassingen — advertenties, films, parodie — worden transparant. Synthetische HR- of marketingcontent moet expliciet gelabeld worden.

Wat dit níet oplost: criminelen houden zich niet aan disclosure-verplichtingen. De wet raakt legitieme aanbieders, niet fraudeurs. Indirect helpt het wel: als legitieme content een watermerk draagt, wordt ongelabelde content verdachter. Maar een ongemarkeerde deepfake is en blijft een deepfake.

Wat u zélf moet regelen: interne processen die niet afhankelijk zijn van de goede wil van aanbieders.

Een praktisch detectieprotocol voor deepfake-fraude in het MKB

Het 5-stappen protocol dat deepfakes stopt

Technische detectie (Pindrop Pulse, Reality Defender, Deepfake Total) is nuttig, maar voor het MKB zelden kosten-efficiënt. Processen zijn goedkoper én effectiever. Dit is het minimum dat u moet inrichten:

Stap 1: Callback-verificatie voor elke betaalopdracht boven een drempel
Stel een drempel in (bijvoorbeeld €5.000) waarboven elke betaalopdracht via een apart kanaal wordt bevestigd. Niet dezelfde e-mail, niet dezelfde telefoonlijn. Bel de aanvrager via zijn bekende telefoonnummer — nooit het nummer in de e-mail of chat.

Stap 2: Codewoord voor video-authenticatie
Spreek binnen uw management-team een codewoord af dat elke week wijzigt. In verdachte calls vraag je ernaar. Een deepfake kent het woord niet. De echte CFO wel.

Stap 3: Verbied de combinatie 'urgent + vertrouwelijk'
Elke e-mail of call die zowel 'urgent' als 'geheim/vertrouwelijk' is, is per definitie verdacht. Publiceer intern: 'Geen enkele legitieme transactie hoeft beide tegelijk te zijn.'

Stap 4: Vier-ogen-principe voor grote bedragen
Boven een tweede drempel (bijvoorbeeld €50.000) vereist u een tweede handtekening van iemand die fysiek of via een geauthenticeerd kanaal aanwezig is. Dit is het moderne equivalent van twee sleutels die gelijktijdig gedraaid moeten worden.

Stap 5: Live-verificatie bij sollicitatiegesprekken
Voor remote sollicitaties (zeker voor tech- of finance-rollen): vraag de kandidaat tijdens de call om een fysieke actie — hand voor gezicht, belichting wijzigen, spontane vraag die interactie forceert. Deepfake-systemen falen hierop zichtbaar.

Deze vijf stappen kosten geen geld, alleen discipline. Ze zijn effectiever dan elk detectieplatform op de markt, omdat ze de aanval niet proberen te herkennen — ze maken hem simpelweg onuitvoerbaar.

Wat u moet vragen aan uw softwareleveranciers

Als u CRM-, HR- of video-conferencing-tools gebruikt, stel uw leverancier deze drie vragen:

1. Hebben jullie deepfake-detectie in de video-conferencing-flow? Zoom, Teams en Webex hebben Pindrop-integraties beschikbaar, maar zelden standaard geactiveerd.
2. Hoe verifieer je identiteit bij geautomatiseerde workflows — met name bij goedkeuringen? Multi-factor, out-of-band, niet alleen e-mail.
3. Wat is jullie proces als een klant meldt dat een deepfake is gebruikt? Forensisch onderzoek, data-retentie, incident response.

Leveranciers die hier geen antwoord op hebben, zijn een risicofactor. Leveranciers die wel een antwoord hebben, maar het niet standaard implementeren, kunnen meestal met een simpele configuratie-upgrade worden geactiveerd.

De kern: vertrouwen moet expliciet worden

Wat de Arup-case echt laat zien is dit: impliciet vertrouwen is een aanvalsoppervlak geworden. Een MKB dat draait op 'we kennen elkaar' en 'Jan handelt dat wel af' had in 2020 een efficiëntievoordeel. In 2026 is het een beveiligingsrisico.

De oplossing is niet paranoia. De oplossing is expliciet vertrouwen: processen die duidelijk, herhaalbaar en voor elk teamlid doenbaar zijn. Codewoord. Callback. Vier-ogen. Meervoudige kanalen.

De bedrijven die dit nu implementeren hebben over zes maanden een incident-responsproces dat werkt. De bedrijven die wachten tot hun eerste videocall van €23 miljoen, hebben over zes maanden geen bedrijf meer.

U heeft nog vier maanden tot de EU AI Act-deadline. Nog langer totdat de eerste grote Nederlandse deepfake-fraudecase de pers haalt. Gebruik die tijd.

Meer weten over wat Datapad voor u kan doen?

Plan een gratis strategiegesprek en ontdek hoe wij uw bedrijf efficiënter maken.