← Zurück zum Blog

Das Voice Cloning — die Fähigkeit, eine menschliche Stimme treu aus einer Audioaufnahme zu reproduzieren — hat sich in 18 Monaten von einem Labor-Gadget zu einem zugänglichen kommerziellen Werkzeug entwickelt. Mit nur 30 Sekunden Referenzaudio erzeugen die aktuellen Modelle eine synthetische Stimme, die für 78 % der menschlichen Zuhörer von der Originalstimme nicht zu unterscheiden ist. Für Unternehmen gibt es zahlreiche legitime Anwendungen. Die Risiken sind ebenfalls vorhanden. Diese Analyse beleuchtet beide Seiten.

Legitime Anwendungen im Unternehmen

Die eigene Markenstimme

Eine einzigartige synthetische Stimme für alle ihre KI-Agenten zu schaffen, ist die am weitesten verbreitete und am wenigsten umstrittene Anwendung. Das Unternehmen lässt einen Synchronsprecher (mit einem klaren Übertragungsvertrag) aufnehmen, erstellt ein Sprachmodell aus dieser Aufnahme und hat eine 100 % eigene Stimme für seine Agenten, seine Sprachserver und seine Audio-Werbung. Kosten: 2.000 bis 8.000 € je nach Aufnahmedauer. Vorteil: vollständige Marken-Kohärenz, kein rechtliches Risiko.

Zugänglichkeit und mehrsprachiger Inhalt

Eine Verlagsgruppe kann die Stimme eines Autors (mit dessen vertraglicher Zustimmung) klonen, um seine Hörbücher in 40 Sprachen zu erzählen, ohne dass der Autor in jeder Sprache aufnehmen muss. Ein Trainer kann mehrsprachige Versionen seiner E-Learning-Kurse mit seiner eigenen geklonten Stimme erstellen. Diese dokumentierten und genehmigten Anwendungen sind rechtlich solide.

Die sprachliche Personalisierung für Kunden

Einige Unternehmen experimentieren mit intensiver Personalisierung: Der KI-Agent passt subtil seinen regionalen Akzent oder seinen Sprachstil an das Profil des Kunden an. Es handelt sich nicht um Voice Cloning im eigentlichen Sinne, sondern um eine feine Anpassung der Sprachsyntheseparameter, die einen ähnlichen Effekt der Nähe erzeugt.

Achtung : Die Stimme einer Person ohne deren ausdrückliche Zustimmung zu klonen, ist in den meisten europäischen Rechtsordnungen illegal, insbesondere im Rahmen der DSGVO (biometrische Daten), des Rechts am eigenen Bild und der neuen AI-Verordnung (Artikel 52 über die Transparenzpflichten). Die Strafen können bis zu 20 Mio. € oder 4 % des weltweiten Jahresumsatzes betragen.

Die unkontrollierten Risiken

Interne Sprachdeepfakes

Mehrere dokumentierte Vorfälle im Jahr 2025 betreffen Cyberkriminelle, die geklonte Stimmen von Führungskräften verwenden, um betrügerische Überweisungen über Telefonanrufe zu autorisieren. Eine geklonte Stimme des CEO, die eine "dringende vertrauliche Überweisung" anordnet, ist überzeugend genug, um einen unvorbereiteten Mitarbeiter zu täuschen. Unternehmen müssen Off-Band-Verifizierungsprotokolle für alle dringenden finanziellen Anfragen, die telefonisch eingehen, einrichten.

Die Verantwortung bei Missbrauch

Wenn Sie eine geklonte Stimme für Ihren Kundenservice einsetzen und ein Kunde über die künstliche Natur des Gesprächs getäuscht wird, kann Ihre Verantwortung in Frage gestellt werden. Das europäische AI-Gesetz verlangt seit Januar 2026, dass alle von KI generierten Inhalte in den Interaktionen mit Verbrauchern klar als solche gekennzeichnet werden.

Der rechtliche Rahmen im Jahr 2026

In Europa regeln drei Texte das Voice Cloning:

Was die Verträge vorsehen müssen

Wenn Sie die Stimme eines Synchronsprechers oder Mitarbeiters verwenden, um ein Sprachmodell zu erstellen: Übertragungsvertrag der Stimmrechte, der die erlaubten Anwendungen (KI-Agenten, Werbung, E-Learning), die Dauer (befristet oder unbefristet), das Gebiet und die Bedingungen für den Widerruf festlegt. Ohne diesen Vertrag kann die Person jederzeit die Löschung des Modells und Schadensersatz verlangen.

"Die Stimme ist identitätsstiftend. Unternehmen, die Voice Cloning als einfaches technisches Gut ohne rechtliche Dimension behandeln, gehen erhebliche Risiken ein." — Anwältin für Digitalrecht, Pariser Kanzlei

Best Practices für einen verantwortungsvollen Einsatz