Siempre pasa lo mismo. Los avances tecnológicos, interesantísimos y provechosos, también se convierten en nuevas armas para aquellos que deciden hacer el mal. Un buen ejemplo es la inteligencia artificial, y su uso para realizar estafas de clonación de voz, que, desgraciadamente, es algo cada vez más habitual.
Tampoco es una gran novedad, puesto que, como ya contamos en Business Insider España, a principios de 2020, 17 ladrones utilizaron la IA para clonar la voz del director de un banco y robar más de 30 millones de euros.
En la actualidad, apuntan desde NordVPN, los programas son asequibles y están diseñados con tecnología de última generación, lo que coadyuva a la multiplicación de este tipo de robos. Lo más habitual, agregan, es llamar a los familiares de la persona que pretenden ser y fingir una emergencia para pedir dinero o conseguir que sean las víctimas de una estafa.
«Antes, los estafadores fingían ser policías o personal médico para asustar a las potenciales víctimas con un falso accidente y pedir dinero para ayudar a un ser querido. Ahora usan grabaciones de redes sociales para clonar la voz de esa persona», comenta Adrianus Warmenhoven, experto en ciberseguridad en NordVPN.
«Al escuchar la voz clonada pidiendo ayuda, los familiares se asustan y hacen lo que el estafador solicita. Esta es una nueva forma de estafa, y debemos preparar a nuestras familias para enfrentarse a ella», agrega.
Más de 19.000 millones de llamadas ‘spam’ en el mundo
En el primer semestre de 2024, una investigación reciente (de la que se hacen eco en NordVPN) revela que más de 19.000 millones de llamadas fueron identificadas como spam en todo el mundo. Diariamente, se identificaron como spam alrededor de 107 millones de llamadas. El estudio muestra que el 22% eran llamadas molestas y el 7% llamadas fraudulentas.
En España, durante la primera parte de este año, los residentes recibieron una media de 12 llamadas de spam por persona y mes. «La situación en España es especialmente notable por su índice relativamente alto de llamadas fraudulentas«, comenta los expertos.
Las estafas basadas en la clonación de voz, aunque sean sofisticadas y requieran una amplia investigación por parte de los estafadores, han demostrado ser extremadamente eficaces.
Desde NordVPN destacan que en España está vigente la Ley 11/2022 General de Telecomunicaciones, que prohíbe las llamadas comerciales sin autorización (denominadas, con frecuencia, spam).
Sin embargo, las organizaciones de consumidores denuncian que los usuarios continúan recibiendo esta clase de llamadas telefónicas sin su consentimiento. Las reclamaciones deben presentarse en la Agencia Española de Protección de Datos.
¿Cómo evitar las estafas telefónicas con clonación de voz?
«Los deepfakes cambian mucho el panorama de las llamadas spam. Es importante que toda la familia entienda qué es la clonación de voz y cómo se usa en estafas. También se deben preparar estrategias simples para identificar si quien llama es un familiar o un estafador», resalta Warmenhoven.
Ante esta proliferación de las estafas telefónicas con clonación de voz, el experto propone estas medidas para proteger a la familia y a uno mismo:
- Crear un «código de emergencia» que solo conozca la familia: tal vez parezca simple, pero tener una palabra o frase secreta que solo conozca la familia es una buena forma de protegerse. Se usa para confirmar la identidad de un familiar en situaciones dudosas.
- Antes de actuar, analizar bien la situación: si se recibe una llamada de un número desconocido y se pone en contacto en nombre de una persona conocida, pero hace una solicitud extraña, es mejor colgar. Después, se podría volver a llamar usando los métodos habituales, para confirmar si es una llamada de verdad.
- Crear una lista con contactos de emergencia: mantener una lista actualizada de familiares y amigos cercanos con los que se pueda contactar rápidamente para verificar situaciones sospechosas.
- Ser cuidadoso con lo que se publica en las redes sociales: las redes sociales son el mayor recurso público de muestras de voz para los ciberdelincuentes. Conviene analizar el contenido que se publica en las redes sociales. Entre otros motivos, porque la seguridad de los usuarios se puede ver comprometida por el aumento de los deepfakes, la clonación de voz y otras estafas que utilizan herramientas de IA.