Telefoon: je geliefde in paniek! Of... is het een oplichter met AI-stem?

Telefoon: je geliefde in paniek! Of... is het een oplichter met AI-stem?

Telefoon: je geliefde in paniek! Of... is het een oplichter met AI-stem? Hoogma Webdesign Beerta
Leo Hoogma - Hoogma Webdesign Beerta

Geschreven door:
, 17 augustus 2023

E-mail Leo Hoogma Linkedin Facebook

Oplichting. We schreven er al vaker over. Zo kennen de meeste mensen de whatsappberichtjes van je "kind" onderhand wel. Je krijg een berichtje met "Hoi mam/pap, ik heb een nieuw nummer." Je keuvelt wat over e.e.a. en dan komt de aap uit je mouw: het "kind" heeft geld nodig. Gelukkig weten de meesten van ons dat dit oplichters zijn. De identiteit van de whatsapper is gelukkig eenvoudig te verifiëren door even te bellen naar het nummer van je échte kind, als je überhaupt kinderen hebt.

Maar... er is een nieuwe vorm van oplichting die een stuk verder gaat, en sneller oprukt dan (cyber)politie kan bijhouden: voice cloning. Dit uit zich o.a. in het ontvangen van een telefoontje, waarbij je je kind in paniek aan de lijn lijkt te krijgen. Er is een verschrikkelijk ongeluk gebeurd, een vriend of vriendin is dood en er moet direct worden betaald! Of jij alsjeblieft kunt helpen.

Dit is een nieuwe, zeer geniepige vorm van oplichting, want je wordt bedrogen waar je bij staat! Je hebt je kind niet aan de lijn, maar een oplichter die gebruikt maakt van stemvervorming met AI. Omdat de persoon aan de telefoon klinkt als je kind, zul je geneigd zijn te handelen vanuit je eerste emotie: de ingeving om je kind te helpen.

Voor de oplichter achter deze telefoontjes is het eenvoudig creatief te zijn. Zo kunnen ze je bijvoorbeeld ook bellen als zijnde je werkgever, en je opdracht geven bedragen over te maken vanaf de bedrijfsrekening. Met voice cloning zijn er tal van oplichtingsmogelijkheden.

Wat is AI precies?

AI staat voor artificiële intelligentie, of artificial intelligence. Letterlijk betekent dit: de techniek van het vermenselijken van robots of computers. Zo is er de mogelijkheid om met een robot te communiceren, waarbij de robot menselijke trekjes vertoont. Hoewel de computer door de mens gemaakt is, kan het zeer beangstigd werken wanneer de robot "zelf" met emoties, beslissingen, of manipulatie lijkt te komen. De mogelijkheden strekken zich verder en grenzen worden steeds meer opgezocht - en overschreden.

Hoe komen oplichters aan het unieke stemgeluid voor AI-oplichting?
Met AI-stemmen kan iedereen met basiskennis van computers een volledig gesprek voeren met de stem van iemand anders. RTV Noord-presentator Eric Bats schrok zich een hoedje, toen hij gebeld werd door "zichzelf". En je hoeft niet eens vaak op de radio te zijn om je stem te delen, een kort telefoongesprek met jou, namens een fictieve maatschappij, geeft criminelen al genoeg input om jouw stem na te maken. Of via bijvoorbeeld een video van je op social media.

Moeten we bang zijn voor AI?
Zoals met veel zaken is het verstandig om je gezonde verstand te blijven gebruiken. Een van de redenen dat criminelen inspelen op je gevoel is omdat je vanuit emotie geneigd bent primitiever te reageren. Maar het enige waar het de oplichters om gaat is geld. Blijf jezelf dus altijd afvragen: is dit echt, en is het een reëel scenario? In Nederland is het doorgaans niet nodig om acuut te betalen bij het veroorzaken van een ongeluk.
Ook is het verstandig om bijvoorbeeld met je kinderen een codewoord af te preken, of samen te zorgen voor een andere manier van identificatie, voor "het geval dat".

Helemaal anti-AI worden hoeft ook weer niet, daar is het een veel te nuttige uitvinding voor. Nu al biedt het tal van positieve ontwikkelingen, bijvoorbeeld in de gezondheidszorg. Hoe verder de techniek ontwikkeld wordt, hoe beter AI wordt. Maar aangezien zoals bij alle onderzoek een deel van de uitkomsten onvoorspelbaar blijft, is het verstandig altijd alert te blijven, en je gezonde verstand te blijven gebruiken.

Wilt u nog meer blogberichten lezen? Ga dan naar de pagina Blog.

Partner van:
  • 24/7 Bestellen Beerta Hoogma Webdesign Beerta
  • Voys  Hoogma Webdesign Beerta
  • Partner van ESET  Hoogma Webdesign Beerta
  • Partner van Mollie  Hoogma Webdesign Beerta
  • Partner van Laposta  Hoogma Webdesign Beerta
Nieuwe phishingtechniek onderschept tweestapsverificatie - Hoogma Webdesign Beerta

Nieuwe phishingtechniek onderschept tweestapsverificatie

5 juni 2024 - Maak je vaak gebruik van tweestapsverificatie (2FA) of MFA (Multi Factor Authentication), dan ben je bewust bezig met online veiligheid. Maar ook hierbij blijft het opletten! Scammers kunnen namelijk... lees verder »

Per ongeluk op phishinglink geklikt, wat nu? - Hoogma Webdesign Beerta

Per ongeluk op phishinglink geklikt, wat nu?

3 juni 2024 - Een van de grootste uitdagingen bij het bestrijden van phishingaanvallen is het feit dat medewerkers niet altijd durven toe te geven dat ze op een phishinglink hebben geklikt. Er zijn verschillende... lees verder »

Contact via Whatsapp

Deze website werkt het beste als u de cookies voor social media en statistieken accepteert.