Opkomst van AI-gegenereerde nepvideo's leidt tot waarschuwingen en zorgen

Gepubliceerd op 08/10/2023 09:00 in Economie

Online bank Bunq staat in de schijnwerpers nadat topman Ali Niknam onlangs het slachtoffer werd van een AI-gemaakte nepvideo. In de video vraagt de nepversie van Niknam een medewerker om een geldbedrag over te maken. Gelukkig trapte de medewerker er niet in. Dit incident is slechts het begin van een groeiende trend van CEO-fraude met behulp van kunstmatige intelligentie, waarschuwt Niknam.

Het fenomeen van CEO-fraude is niet nieuw, maar de gebruikte technieken worden steeds complexer. Frank Groenewegen, partner Cyber Risk bij Deloitte, bevestigt dat CEO-fraude vaak wordt gesimuleerd tijdens bestuursbijeenkomsten. Een voorbeeld hiervan is een AI-gemaakte video waarin beursgerelateerde mededelingen worden gedaan die directe reacties veroorzaken op de beurs.

Bunq is niet het enige bedrijf dat te maken heeft met AI-gegenereerde nepvideo's. Ook Amerikaanse beroemdheden zoals acteur Tom Hanks, ontbijtshowpresentator Gayle King en youtuber Jimmy Donaldson, beter bekend als MrBeast, hebben hun miljoenen volgers gewaarschuwd voor dit fenomeen. Donaldson vraagt zich bovendien af of sociale media wel voldoende voorbereid zijn op deze ontwikkeling en noemt het een "serieus probleem".

Hoewel AI-gegenereerde nepvideo's, ook wel deepfakes genoemd, al enige tijd bestaan, worden ze steeds moeilijker te onderscheiden van echte video's. De komst van generatieve AI maakt het makkelijker om dergelijke video's te creƫren en ze steeds realistischer te laten lijken. Theo Gevers, hoogleraar computer vision aan de Universiteit van Amsterdam, bevestigt dat de stemmen in deepfakes steeds beter worden gekloond en dat dit een serieus probleem vormt voor detectietools.

Naast het risico op oplichting, brengen AI-gegenereerde nepvideo's ook het gevaar met zich mee van manipulatie tijdens verkiezingen. Recentelijk werden in Slowakije deepfake-video's verspreid waarin de leider van de liberale PS-partij leek te praten over het kopen van stemmen. Factcheckers concludeerden echter dat de audio nep was. Experts maken zich zorgen over deze ontwikkeling.

Toch is er hoop dat we in staat zijn om echt en nep van elkaar te onderscheiden. Volgens Olya Kudina, universitair hoofddocent ethiek en filosofie van technologie aan de TU Delft, zijn mensen in staat om de context van een video te gebruiken om te beoordelen of deze echt of nep is. Het feit dat de medewerker van Bunq niet intrapte, wordt gezien als een goed teken. Het is echter belangrijk om de gevaren van deepfakes niet te onderschatten.

Hoewel AI-gegenereerde nepvideo's steeds overtuigender worden, blijft de sociale context waarin iets wordt gezegd een cruciale factor bij het herkennen ervan. Zowel de context van de Bunq-video als de afwijkende watermerken op de video van MrBeast speelden een rol bij het al dan niet verdacht vinden van de video's.

Hoewel de opkomst van AI-gegenereerde nepvideo's serieuze zorgen baart, benadrukken experts dat mensen niet alleen moeten vertrouwen op visuele beoordeling, maar ook moeten letten op de context en aanvullende informatie om de echtheid van een video te kunnen bepalen.

Lees meer nieuws in economie