La tecnología de clonación de voz ha pasado de ser una herramienta exclusiva para expertos a un recurso accesible para cualquier persona.
Gracias a múltiples servicios en línea y al respaldo de la inteligencia artificial generativa, como ChatGPT, los ciberdelincuentes pueden replicar voces con una precisión sorprendente.
Aunque esta tecnología puede beneficiar áreas como la terapia del habla, la autenticación biométrica y la creación de contenidos, también abre la puerta a nuevos métodos de fraude.
El aumento de las estafas de clonación de voz
La accesibilidad de esta tecnología ha permitido que estafadores utilicen la clonación de voz para hacerse pasar por familiares o altos ejecutivos, engañando a sus víctimas para obtener información confidencial o realizar transferencias de dinero. A continuación, se detallan dos ejemplos comunes de estas estafas, junto con recomendaciones para detectarlas y prevenirlas:
La estafa del “familiar en emergencia”
Escenario: Recibir una llamada supuestamente de un familiar (por ejemplo, un hijo) que afirma haber sufrido un accidente y necesita dinero de manera urgente.
Cómo detectarla:
Presión para actuar de inmediato, generando pánico.
Solicitud de métodos de pago sospechosos, como criptomonedas o tarjetas prepagas.
Historias con inconsistencias o falta de detalles específicos.
Consejos de defensa:
Mantener la calma y verificar la situación llamando directamente al familiar.
Formular preguntas personales que solo la persona real podría responder.
No compartir información sensible hasta confirmar la autenticidad de la llamada.
Fuente: diariocorreo.pe