Van deepfake naar diepe ellende…

Van deepfake naar diepe ellende…

12 oktober 2023

Ken je het begrip deepfake? Vast en zeker, want op social media kom je het veel tegen. Het gaat om nepvideo’s, -afbeeldingen en -geluiden die bijna niet van echt te onderscheiden zijn. Dat resulteert in grappige filmpjes. Bijvoorbeeld het gezicht van oud-minister Ferd Grapperhaus dat is geplakt over dat van darter Michael van Gerwen (je vindt het filmpje hier). Het maken van dit soort filmpjes wordt steeds eenvoudiger dankzij kunstmatige intelligentie. Maar de gevolgen kunnen desastreus zijn. Dus pas goed op: voordat je het weet ga je van deepfake naar diepe ellende…

Leuke filmpjes en nepnieuws

Deepfake staat voor deep learning en fake. Het is een techniek voor het samenstellen van menselijke beelden op basis van kunstmatige intelligentie. Het wordt gebruikt om bestaande afbeeldingen en video te combineren en over elkaar te zetten. Je kunt dus iemand dingen laten zeggen of doen die hij of zij in werkelijkheid nooit heeft gezegd of gedaan. Dat kan dus resulteren in filmpjes zoals hierboven. Of zoals in de filmindustrie waarbij een overleden acteur alsnog een rol kan spelen in een film. Maar het wordt steeds meer gebruikt voor toepassingen met minder goede bedoelingen. Bijvoorbeeld voor nepnieuws. Zo is er een filmpje waarin president Zelensky zijn soldaten oproept de wapens neer te leggen en zich over te geven aan Rusland. Over die kwade kant van deepfake wil ik het hebben.

 

Het gevaar dat loert

Want die kwade kant kan zorgen voor grote schade. Zo ontving een medewerker van de BUNQ-bank een video van zijn baas via Whatsapp. Daarin vroeg de directeur – die op reis was – om een snelle aanbetaling voor een grote deal. Met daarbij een link voor een videogesprek. Gelukkig was de bankmedewerker zo slim om het te checken bij zijn werkgever. Zo kwam hij er achter dat het nep was. Nog een voorbeeld: criminelen gebruikten spraaksoftware om zich voor te doen als de baas van een Duits moederbedrijf dat eigenaar is van een Brits energiebedrijf. Daarmee kregen ze de Britse directeur zover dat hij € 243.000 betaalde aan een Hongaarse leverancier. De man dacht echt met zijn baas te maken te hebben want hij herkende het bekende lichte Duitse accent en de stempatronen. …En het verzoek was dringend. Het geeft aan hoe eenvoudig het is om mensen op het verkeerde been te zetten. Bedenk daarbij dat de tools om stemmen na te bootsen steeds realistischer én eenvoudiger worden. Daarmee stijgt ook de kans dat criminelen ze in hun voordeel gebruiken. Door een identiteit aan de telefoon te veinzen, krijgen ze eenvoudig toegang tot informatie die anders privé was. Met mogelijk heel veel ellende als gevolg.

 

Maken van deepfakes steeds makkelijker

Zoals al eerder aangehaald: het maken van deepfakevideo’s, -beelden of -geluid is steeds makkelijker. De vooruitgang op het gebied kunstmatige intelligentie speelt hierin een bepalende rol. Je hoeft geen begenadigd programmeur meer te zijn; met een paar eenvoudige apps kom je al een heel eind. Terwijl deepfakes echt een reële bedreiging kunnen vormen voor de cyberbeveiliging van consumenten en ondernemingen. Denk maar aan het misleiden van gezichtsherkenning voor identificatie. Bijkomend probleem is dat de bestrijding van dit soort nepvideo’s moeilijk is. Er is weliswaar een Europese richtlijn die desinformatie wil aanpakken. Maar daarmee is het gevaar niet direct geweken. Bovendien is een echt verbod juridisch nog niet zo eenvoudig. Daarmee sluit je immers ook het positieve gebruik uit. Wel wordt op wereldwijde schaal gekeken naar hoe juist kunstmatige intelligentie misbruik kan voorkomen. Maar ook daar is nog een weg te gaan. Bijna iedere week komen er immers nieuwe tools om nepcontent te maken.

 

Ben op je hoede!

Voor nu is het dus vooral belangrijk dat je als ondernemer het gevaar kent én onderkent. En dat je op je hoede bent. Laat het een goede trigger zijn om nog eens secuur naar de (cyber)beveiligingsprocessen te kijken. Of beter nog, integreer deze processen in je management en PR-team. Hoe gaan medewerkers om met vreemde betaalverzoeken vanuit de CEO of CFO? Of met rare vragen over gevoelige informatie zoals toegangscodes of wachtwoorden? Het is belangrijk om dit in beeld te krijgen. Redelijk eenvoudige maatregelen kunnen de risico’s direct beperken. Zo kun je bijvoorbeeld afspreken dat je een verzoek altijd via een ander kanaal verifieert (door het bij jou bekende nummer na te bellen bijvoorbeeld) wanneer het gaat om spoedbetalingen. Dat lijkt een kleine maatregel, maar het kan grote ellende voorkomen.

 

Wil je eens vrijblijvend sparren over de gevaarlijke kanten van kunstmatige intelligentie of de cyberbeveiliging van jouw bedrijf? Maak dan gerust een afspraak met één van onze IT-Assurance specialisten. Dat mag gewoon in levenden lijve op kantoor, dan weet je zeker dat je niet met deepfakes te maken hebt…

Deze blog is geschreven door