← Terug naar de blog

Voice cloning — de mogelijkheid om een menselijke stem nauwkeurig te reproduceren op basis van een audiofragment — is in 18 maanden tijd van laboratoriumgadget naar toegankelijk commercieel hulpmiddel gegaan. Met slechts 30 seconden referentie-audio genereren de huidige modellen een synthetische stem die niet te onderscheiden is van het origineel voor 78 % van de menselijke luisteraars. Voor bedrijven zijn er tal van legitieme toepassingen. De risico's ook. Deze analyse behandelt beide.

Legitieme toepassingen in bedrijven

De eigen merkstem

Een unieke synthetische stem creëren voor al zijn AI-agenten is de meest voorkomende en minst controversiële toepassing. Het bedrijf laat een stemacteur opnemen (met een expliciete overdrachtsovereenkomst), creëert een stemmodel op basis van deze opname, en beschikt over een 100 % eigen stem voor zijn agenten, zijn spraakservers en zijn audioadvertenties. Kosten: 2.000 tot 8.000 € afhankelijk van de opnameduur. Voordeel: totale merksamenhang, geen juridische risico's.

Toegankelijkheid en meertalige inhoud

Een uitgeversgroep kan de stem van een auteur klonen (met zijn contractuele toestemming) om zijn audioboeken in 40 talen te vertellen, zonder dat de auteur in elke taal hoeft op te nemen. Een trainer kan meertalige versies van zijn e-learning cursussen maken met zijn eigen gekloonde stem. Deze toegestane en gedocumenteerde toepassingen zijn juridisch solide.

Klantstempersonalisatie

Enkele bedrijven experimenteren met geavanceerde personalisatie: de AI-agent past subtiel zijn regionale accent of taalregister aan op basis van het profiel van de klant. Niet echt stemklonen, maar een fijne aanpassing van de parameters van spraaksynthese die een vergelijkbaar effect van nabijheid produceert.

Let op: De stem van een persoon klonen zonder zijn expliciete toestemming is illegaal in de meeste Europese rechtsgebieden, met name onder de RGPD (biometrische gegevens), het recht op stembeeld, en de nieuwe AI Act (artikel 52 over transparantieverplichtingen). De sancties kunnen oplopen tot 20 miljoen € of 4 % van de wereldwijde jaarlijkse omzet.

De slecht beheerde risico's

Interne vocale deepfake

Meerdere gedocumenteerde incidenten in 2025 omvatten cybercriminelen die gekloonde stemmen van leidinggevenden gebruikten om frauduleuze overboekingen via telefoongesprekken goed te keuren. Een gekloonde stem van de CEO die een "dringende vertrouwelijke overboeking" beveelt, is overtuigend genoeg om een niet-voorbereide medewerker te misleiden. Bedrijven moeten off-band verificatieprotocollen opzetten voor elke dringende financiële aanvraag die per telefoon wordt ontvangen.

Aansprakelijkheid bij misbruik

Als u een gekloonde stem voor uw klantenservice inzet en een klant wordt misleid over de kunstmatige aard van het gesprek, kunt u aansprakelijk worden gesteld. De Europese AI Act vereist sinds januari 2026 dat alle door AI gegenereerde inhoud duidelijk als zodanig wordt geïdentificeerd in interacties met consumenten.

Het juridische kader in 2026

In Europa worden drie teksten gebruikt om voice cloning te reguleren:

Wat contracten moeten bevatten

Als u de stem van een stemacteur of medewerker gebruikt om een stemmodel te creëren: overdrachtsovereenkomst van de stemrechten waarin de toegestane toepassingen worden gespecificeerd (AI-agenten, reclame, e-learning), de duur (beperkt of eeuwigdurend), het territorium, en de voorwaarden voor intrekking. Zonder dit contract kan de persoon op elk moment de verwijdering van het model en schadevergoeding eisen.

"De stem is identiteitsbepalend. Bedrijven die voice cloning behandelen als een eenvoudig technisch actief zonder juridische dimensie lopen aanzienlijke risico's." — Advocaat gespecialiseerd in digitaal recht, Parijse firma

Beste praktijken voor een verantwoordelijke implementatie