← Volver al blog

El clonación de voz — la capacidad de reproducir fielmente una voz humana a partir de una muestra de audio — ha pasado en 18 meses de ser un gadget de laboratorio a una herramienta comercial accesible. Con solo 30 segundos de audio de referencia, los modelos actuales generan una voz sintética indistinguible de la original para el 78 % de los oyentes humanos. Para las empresas, los usos legítimos son numerosos. Los riesgos también. Este análisis aborda ambos.

Los usos legítimos en la empresa

La voz de marca propietaria

Crear una voz sintética única para todos sus agentes de IA es el uso más común y menos controvertido. La empresa hace grabar a un actor de voz (con contrato de cesión explícito), crea un modelo vocal a partir de esta grabación y dispone de una voz 100 % propietaria para sus agentes, sus servidores de voz y sus anuncios de audio. Costo: 2,000 a 8,000 € según la duración de la grabación. Ventaja: coherencia total de marca, ningún riesgo legal.

La accesibilidad y el contenido multilingüe

Un grupo editorial puede clonar la voz de un autor (con su consentimiento contractual) para narrar sus audiolibros en 40 idiomas, sin que el autor tenga que grabar en cada idioma. Un formador puede crear versiones multilingües de sus cursos de e-learning con su propia voz clonada. Estos usos consentidos y documentados son jurídicamente sólidos.

La personalización vocal del cliente

Algunas empresas están experimentando con la personalización avanzada: el agente de IA adapta sutilmente su acento regional o su registro de lenguaje según el perfil del cliente. No es clonación de voz propiamente dicha, sino una adaptación fina de los parámetros de síntesis de voz que produce un efecto similar de cercanía.

Atención: Clonar la voz de una persona sin su consentimiento explícito es ilegal en la mayoría de las jurisdicciones europeas, especialmente bajo el RGPD (datos biométricos), el derecho a la imagen vocal y el nuevo reglamento AI Act (artículo 52 sobre las obligaciones de transparencia). Las sanciones pueden alcanzar los 20 M€ o el 4 % de la facturación anual mundial.

Los riesgos mal gestionados

El deepfake vocal interno

Varios incidentes documentados en 2025 involucran a cibercriminales utilizando voces clonadas de directivos para autorizar transferencias fraudulentas a través de llamadas telefónicas. Una voz clonada del CEO ordenando una "transferencia urgente confidencial" es lo suficientemente convincente como para engañar a un colaborador no advertido. Las empresas deben establecer protocolos de verificación fuera de banda para cualquier solicitud financiera urgente recibida por teléfono.

La responsabilidad en caso de mal uso

Si despliega una voz clonada para su servicio al cliente y un cliente es engañado sobre la naturaleza artificial de la conversación, su responsabilidad puede verse comprometida. La AI Act europea impone desde enero de 2026 que todo contenido generado por IA sea claramente identificado como tal en las interacciones con los consumidores.

El marco legal en 2026

En Europa, tres textos regulan la clonación de voz:

Lo que los contratos deben prever

Si utiliza la voz de un actor o colaborador para crear un modelo vocal: contrato de cesión de los derechos vocales especificando los usos autorizados (agentes de IA, publicidad, e-learning), la duración (limitada o perpetua), el territorio y las condiciones de revocación. Sin este contrato, la persona puede reclamar en cualquier momento la eliminación del modelo y daños y perjuicios.

"La voz es identitaria. Las empresas que tratan la clonación de voz como un simple activo técnico sin dimensión jurídica corren riesgos considerables." — Abogada especializada en derecho digital, despacho parisino

Mejores prácticas para un despliegue responsable