Early Warning van de maand: deepfakes voor het grote publiek
Eén van de taken van het programma Strategische Verkenningen is om veranderingen in de omgeving van Rijkswaterstaat tijdig te signaleren. Deze veranderingen kunnen immers gevolgen hebben voor het werk en de organisatie van Rijkswaterstaat.
We verzamelen signalen van mogelijke veranderingen door internetsearch en gesprekken met experts binnen en buiten de organisatie. De resultaten worden weergegeven in korte Early Warning-signalen.
We leven in een tijd waarin de scheidslijn tussen feiten en fictie steeds dunner wordt. Dagelijks wordt het internet overspoeld met misleidende of onjuiste informatie. We stellen onszelf hierdoor steeds vaker de vraag of het nieuws dat ons via online kanalen bereikt, gestaafd is door betrouwbare bronnen of dat het om nepnieuws gaat. Met de opkomst van nieuwe technologieën, zoals deepfakes, gaat dit alleen nog maar lastiger worden. Kunnen wij straks nog echt van nep onderscheiden?
Steeds realistischer en toegankelijker
Deepfake is een technologie waarbij kunstmatige intelligentie-software gezichten, beelden en geluiden zo goed kan analyseren dat het synthetische beelden en geluiden kan produceren die nauwelijks nog van echt te onderscheiden zijn. Deepfake-technologie ontwikkelt zich razendsnel en staat op het punt om op grote schaal door te breken. Daar waar de meeste computers nu nog in staat zijn om onderscheid te maken tussen synthetisch geproduceerd beeldmateriaal en authentieke beelden, zal dat in de toekomst een stuk lastiger worden. De technologie wordt ook steeds toegankelijker. Op dit moment is het voor ‘een gemiddelde burger met een laptop’ al mogelijk om in een paar uur deepfake-video’s van redelijke kwaliteit te maken. Dit zal nog makkelijker worden en de kwaliteit neemt toe.
Koren op de molen van fraudeurs en verspreiders van desinformatie
De toenemende laagdrempeligheid maakt het voor criminelen en andere kwaadwillenden interessanter om de technologie voor hun eigen malafide doeleinden te gebruiken. Zo imiteerde een fraudeur in 2019 met deepfake technologie de stem van de CEO van een Brits energiebedrijf, om zo een werknemer te bewegen om 220.000 euro over te maken naar een onbekend rekeningnummer. Het slachtoffer gaf aan de stem en het accent van zijn baas te herkennen, terwijl de stem met behulp van deepfake technologie was nagebootst.
Een ander voorbeeld: actiegroep Extinction Rebellion publiceerde een deepfake video van de Belgische premier, waarin zij het coronavirus in verband bracht met de klimaatcrisis. Ondanks dat er duidelijk stond aangegeven dat de video nep was, leidde het tot veel verwarring en ophef. Het illustreert hoe de technologie ingezet kan worden om nepnieuws te verspreiden.
Ook organisaties zoals Rijkswaterstaat kunnen een doelwit zijn
Deepfakes staan vooral bekend om gefabriceerd beeldmateriaal van gezichten van personen, maar de technologie wordt ook ingezet om beelden van objecten en satellietbeelden te manipuleren. Zo zouden bijvoorbeeld deepfakes gemaakt kunnen worden van instortende bruggen of sluizen. Fraudeurs kunnen dergelijke beelden inzetten om bijvoorbeeld de burger angst in te boezemen of de beheerder van het kunstwerk in een kwaad daglicht te stellen. Het vertrouwen in de beheerder kan zo een flinke deuk oplopen.
Daarnaast kunnen overheidsmedewerkers doelwit worden van een lastercampagne met behulp van deepfake-video’s. Dit zou het imago van de persoon in kwestie en van de organisatie kunnen schaden. Aangezien wetgeving op dit gebied achterblijft, kunnen getroffenen daar voorlopig niet op terugvallen om zichzelf te beschermen tegen de gevaren van deepfakes. Bewustwording over de kansen en risico’s is een belangrijke eerste stap.