Los cibercriminales perfeccionan sus métodos con engaños cada vez más realistas. Detectar estas tácticas puede ser la clave para mantenerse seguro en línea.
El veloz avance de la inteligencia artificial ha abierto oportunidades valiosas para la innovación, pero también multiplica los riesgos de fraude digital.
En el marco del Día de la Protección de Datos es imprescindible entender cómo nuestra huella digital (o conjunto de datos personales que dejamos en línea) puede ser utilizada por delincuentes para ejecutar estafas con voces clonadas por IA, modalidad que está creciendo con rapidez y sofisticación.
Esta forma de estafa utiliza fragmentos de audio o videos expuestos en internet, estados de mensajería o cualquier espacio público digital para entrenar modelos de inteligencia artificial capaces de imitar con gran precisión la voz de una persona real.
Con ellos, simulan emergencias o situaciones de alto impacto emocional para obtener dinero, información sensible o acceso a cuentas bancarias.

Las cifras de la PNP
Según la División de Investigación de Ciberdelincuencia de la Policía Nacional, en agosto del 2025 se recibieron más de 4000 denuncias por delitos informáticos y 94 casos de estafa gracias a la ayuda de la IA, que suplantó la identidad de otras personas, y lograron sustraer más de 1 millón de soles.
Un caso reciente ocurrió en Florida, donde una mujer fue engañada mediante una llamada en la que la voz de su propia hija, generada artificialmente. Allí le relataba un accidente y presionaba para entregar 15 mil dólares en efectivo como “fianza”. La estafa fue tan convincente que la víctima entregó sus ahorros antes de verificar la situación con familiares directos.
“El volumen de datos que compartimos en plataformas públicas, como grabaciones familiares, mensajes de voz o videos personales, alimenta algoritmos que pueden construir réplicas sonoras casi indistinguibles de las voces originales.
Esa misma exposición breve de audio o video puede ser suficiente para que un modelo de IA reproduzca entonaciones, acentos y patrones vocales de una persona en un contexto de fraude”, señaló Víctor Gutiérrez, especialista en seguridad digital de Intecnia Corp, Country partner de Bitdefender.
Estafas con clonación de voz aumentan
Informes especializados señalan que las estafas con voces generadas artificialmente aumentaron hasta un 30 % en diciembre de 2025, asociado a fechas de mayor actividad familiar y transaccional. En ese sentido, el experto en ciberseguridad señala cinco medidas para reducir la vulnerabilidad frente a estos ataques:
Gestión consciente de la huella digital: Limitar la publicación de audios y videos personales en redes y establecer configuraciones de privacidad estrictas.
Verificación por múltiples canales: Ante una llamada sospechosa, cortar la comunicación y confirmar por mensaje de texto o llamada desde un número verificado.
Palabras clave de seguridad: Establecer códigos de confirmación únicos con familiares para validar identidades en situaciones críticas.
Verificación de información sensible: Nunca proporcionar claves, enviar dinero o facilitar accesos sin validar con fuentes directas y confiables.
Educación continua: Estar siempre al tanto de las nuevas modalidades de estafas, y capacitar a familiares, especialmente a mayores de edad, sobre la lógica de manipulación emocional que subyace en estos fraudes.
“La protección de datos personales es un pilar estratégico para el desarrollo seguro de la sociedad digital. Instituciones públicas, empresas y usuarios deben asumir responsabilidad activa sobre su información y su huella digital. La conciencia y las prácticas preventivas no solo reducen los riesgos de fraude, sino que fortalecen la confianza frente a tecnologías que, bien utilizadas, pueden impactar positivamente a múltiples sectores”, finalizó Gutiérrez.
Para más consejos de ciberseguridad, visita www.bitdefenderperu.com



