El clonación de voz — la capacidad de reproducir fielmente una voz humana a partir de una muestra de audio — ha pasado en 18 meses de ser un gadget de laboratorio a una herramienta comercial accesible. Con solo 30 segundos de audio de referencia, los modelos actuales generan una voz sintética indistinguible de la original para el 78 % de los oyentes humanos. Para las empresas, los usos legítimos son numerosos. Los riesgos también. Este análisis aborda ambos.
Los usos legítimos en la empresa
La voz de marca propietaria
Crear una voz sintética única para todos sus agentes de IA es el uso más común y menos controvertido. La empresa hace grabar a un actor de voz (con contrato de cesión explícito), crea un modelo vocal a partir de esta grabación y dispone de una voz 100 % propietaria para sus agentes, sus servidores de voz y sus anuncios de audio. Costo: 2,000 a 8,000 € según la duración de la grabación. Ventaja: coherencia total de marca, ningún riesgo legal.
La accesibilidad y el contenido multilingüe
Un grupo editorial puede clonar la voz de un autor (con su consentimiento contractual) para narrar sus audiolibros en 40 idiomas, sin que el autor tenga que grabar en cada idioma. Un formador puede crear versiones multilingües de sus cursos de e-learning con su propia voz clonada. Estos usos consentidos y documentados son jurídicamente sólidos.
La personalización vocal del cliente
Algunas empresas están experimentando con la personalización avanzada: el agente de IA adapta sutilmente su acento regional o su registro de lenguaje según el perfil del cliente. No es clonación de voz propiamente dicha, sino una adaptación fina de los parámetros de síntesis de voz que produce un efecto similar de cercanía.
Los riesgos mal gestionados
El deepfake vocal interno
Varios incidentes documentados en 2025 involucran a cibercriminales utilizando voces clonadas de directivos para autorizar transferencias fraudulentas a través de llamadas telefónicas. Una voz clonada del CEO ordenando una "transferencia urgente confidencial" es lo suficientemente convincente como para engañar a un colaborador no advertido. Las empresas deben establecer protocolos de verificación fuera de banda para cualquier solicitud financiera urgente recibida por teléfono.
La responsabilidad en caso de mal uso
Si despliega una voz clonada para su servicio al cliente y un cliente es engañado sobre la naturaleza artificial de la conversación, su responsabilidad puede verse comprometida. La AI Act europea impone desde enero de 2026 que todo contenido generado por IA sea claramente identificado como tal en las interacciones con los consumidores.
El marco legal en 2026
En Europa, tres textos regulan la clonación de voz:
- RGPD: La voz se considera un dato biométrico. Clonar la voz de una persona sin una base legal explícita (consentimiento, contrato) es una violación del RGPD
- AI Act (aplicable desde agosto de 2025): Los sistemas de síntesis de voz desplegados en interacción con consumidores deben incluir un marcado de transparencia audible o legible
- Derecho común francés: La voz está protegida bajo el derecho a la imagen y la privacidad. Usar la voz de alguien sin autorización puede constituir una infracción o una violación de la privacidad
Lo que los contratos deben prever
Si utiliza la voz de un actor o colaborador para crear un modelo vocal: contrato de cesión de los derechos vocales especificando los usos autorizados (agentes de IA, publicidad, e-learning), la duración (limitada o perpetua), el territorio y las condiciones de revocación. Sin este contrato, la persona puede reclamar en cualquier momento la eliminación del modelo y daños y perjuicios.
"La voz es identitaria. Las empresas que tratan la clonación de voz como un simple activo técnico sin dimensión jurídica corren riesgos considerables." — Abogada especializada en derecho digital, despacho parisino
Mejores prácticas para un despliegue responsable
- Siempre trabajar con voces creadas por actores remunerados y que hayan firmado un contrato explícito
- Informar claramente a los clientes que están interactuando con un agente de IA (y no con un humano)
- No utilizar nunca la voz de un directivo o empleado sin su consentimiento por escrito
- Auditar regularmente el uso de su modelo vocal para detectar los malos usos
- Formar a los equipos financieros sobre los riesgos de deepfake vocal para las verificaciones de transferencias