Los avances en la tecnología de inteligencia artificial (IA) han aportado numerosos beneficios a la sociedad, desde mejoras en la medicina hasta innovaciones en la comunicación. Sin embargo, al ser una herramienta poderosa, la IA también está siendo utilizada por personas malintencionadas para cometer delitos, siendo las estafas un problema preocupante.
La capacidad de la IA para replicar y simular comportamientos humanos ha abierto puertas que hace apenas unos años parecían imposibles. Hoy en día, los delincuentes no necesitan conocer en profundidad a sus víctimas para engañarlas, basta con contar con las herramientas adecuadas. Uno de los fraudes más recientes y alarmantes es la clonación de voces de familiares, un esquema que ha puesto en jaque a muchas personas en Perú y en otros países. Pero, ¿cómo logran estos ciberdelincuentes replicar las voces con tanta exactitud?
Nueva modalidad de estafa: clonación de voces con IA
Recientemente, se ha detectado en Perú una nueva forma de estafa que utiliza inteligencia artificial para clonar voces de familiares cercanos. Los delincuentes se aprovechan de esta tecnología para engañar a las víctimas, haciéndoles creer que están en contacto con seres queridos. Estas estafas generalmente inician con una llamada telefónica o un mensaje de voz que parece provenir de un familiar que solicita ayuda urgente, usualmente en términos económicos.
Lo que hace que este tipo de estafa sea particularmente efectiva es la precisión con la que se imitan las voces. Gracias a la IA, los estafadores pueden manipular grabaciones y generar nuevas secuencias de voz que imitan casi a la perfección el tono, ritmo y cadencia de la persona clonada. Esto crea un escenario muy creíble que, al ser emocionalmente cargado, lleva a las víctimas a actuar rápidamente sin cuestionar la autenticidad de la llamada.
¿Cómo los ciberdelincuentes clonan las voces con IA?
El proceso de clonación de voces con IA es tecnológicamente avanzado pero sorprendentemente accesible. Los delincuentes solo necesitan unos pocos minutos de audio para analizar y replicar la voz de una persona. Esta grabación puede obtenerse a partir de mensajes de voz, videos en redes sociales o incluso conversaciones telefónicas previamente interceptadas. Con esa muestra, los estafadores alimentan a un sistema de inteligencia artificial especializado en síntesis de voz, que genera una copia virtual de la voz en cuestión.
Una vez creada, esta réplica de voz se utiliza para llamar a familiares o amigos cercanos de la víctima. Durante la llamada, los estafadores simulan una situación de emergencia, como un accidente o una detención, y solicitan dinero de forma inmediata. La velocidad y precisión con la que la IA puede replicar las voces son tan convincentes que muchas personas han caído en la trampa sin sospechar del engaño hasta después de haber transferido el dinero.
¿Cómo puedes evitar las estafas con IA?
La prevención es fundamental para evitar caer en estafas de este tipo. Sigue estas recomendaciones:
- Mantente informado sobre las nuevas tácticas de los ciberdelincuentes.
- Establece un protocolo familiar para situaciones de emergencia. Verifica siempre por otros medios antes de transferir dinero.
- Limita la cantidad de información personal y grabaciones de voz que compartes en redes sociales.
- Utiliza herramientas de seguridad como servicios de identificación de llamadas para bloquear números sospechosos.
- Desconfía de solicitudes urgentes de dinero y siempre verifica la situación real con otros miembros de la familia.