De Spaanse politie waarschuwt voor een gevaarlijke vorm van oplichting genaamd ‘voice hacking’. Deze techniek maakt gebruik van kunstmatige intelligentie (AI) om stemmen na te bootsen. Oplichters gebruiken opgenomen stemmen van slachtoffers om geloofwaardige audioberichten te maken. Hiermee proberen ze familieleden of vrienden geld af te troggelen door zich voor te doen als het slachtoffer.
Volgens de politie verzamelen criminelen geluidsopnamen van sociale media of andere openbare bronnen. Vervolgens gebruiken ze AI om deze opnamen om te zetten in levensechte nagemaakte stemmen. Hierdoor kunnen ze overtuigend klinken als een familielid of vriend en bijvoorbeeld beweren dat ze in nood zijn.
Een bekend voorbeeld van ‘voice hacking’ is het geval van een Amerikaanse vrouw die in 2023 een telefoontje kreeg waarin de stem van haar dochter beweerde te zijn ontvoerd. Er werd een losgeld van 50.000 dollar geëist. De dochter bleek echter veilig te zijn en de vrouw was slachtoffer van een oplichterstruc.
Ook in Canada vond een incident plaats waarbij een ouder echtpaar werd opgelicht. Een nagemaakte stem, die klonk als hun kleinzoon, vroeg om geld voor borg nadat hij zogenaamd was gearresteerd. Gelukkig ontdekten ze de fraude voordat ze het geld overmaakten.
De politie en het Spaanse Nationaal Cyberveiligheidsinstituut (INCIBE) raden aan om voorzorgsmaatregelen te nemen. Enkele tips zijn:
- Wees op je hoede bij verdachte oproepen: Controleer de identiteit van de beller, vooral als er geld of persoonlijke gegevens worden gevraagd.
- Stel een geheime code in: Spreek een codewoord af met familieleden en vrienden om de authenticiteit van oproepen te controleren.
- Bescherm je gegevens: Deel geen persoonlijke informatie op sociale media en beperk het gebruik van je stem in openbare video’s.
- Blijf alert op technologie: Leer hoe AI werkt en hoe het gebruikt kan worden bij oplichting.
‘Voice hacking’ maakt deel uit van een grotere trend van oplichtingstechnieken, zoals ‘vishing’, waarbij criminelen zich telefonisch voordoen als banken of overheidsinstanties. Het gebruik van AI in deze oplichting maakt het moeilijker om echt van vals te onderscheiden.
